分享
Scan me 分享到微信

超越 Siri: 来自互联网的AI变革

人机相互,一直是我们幻想未来中的一部分

  作者:Eric Poindessault

  翻译:younger 审校:心

  从《2001太空漫游》中的机器人HAL,到Spike Jonze导演的《她》中的Samantha,几十年来,我们一直在幻想,未来某天智能计算机将能够与人类交互,像人一样可以听从指令,也可以独立做出决策。

  自iPhone 4 的Siri上线以来,Google, Facebook, Amazon, Microsoft ,Baidu也已踏入这一领域。虽然每一代的新AI或许都会有新特点或新应用,然而它们离电影中呈现的人工智能还相差甚远。很难想象真的会有人与Siri恋爱,或者NASA让Alexa掌控整个太空飞船。

  电影的期望甚高,我们仍然在等待这样的声控AI助理能够在未来广泛地进入真实世界。然而,一个能够真正辅助人类日常生活的智能助理时代,或许并未像我们想象地那么遥远。

  只依赖于用户输入的被动助理

  谈到智能人类助理,人们想到的总会是Siri, Cortana或者 Amazon Echo。某些熟悉科技的用户可能也从Siri的创始人那里听说过Viv, 还有Facebook最近研发的M,以及Operator或Magic等基于信息的AI工具。但是,虽然最近这些工具炒得火热,然而就用户案例而言,其中大多数仍然局限于所谓的Q&A模式。

  最近几年,关于科技公司对待AI研发态度认真的信号时常出现。2014年谷歌以5亿美元收购了伦敦的深度学习研究企业DeepMind,去年IBM收购了AlchemyAPI,最近1周内苹果就进行了两次收购。

  基于GPU加速的深度学习出现突破后,这些收购接踵而至,使得模式识别方面出现卓越进展,并有了更强大的语音识别和计算机视觉应用。据Expect Labs的创始人和CEO Tim Tuttle所说,未来两年机器将能够比人类更善于听从语音指令。

  通过我们的感官传达的能力是否真的是人类智慧的本质,仍然存在争议,然而这种能力就像是基本配方的一种配料。伯克利大学的Stuart Russell教授确认了计算机为通过整个图灵测试需要具备的六种主要能力:自然语言处理,知识表达,自动推理,机器学习,计算机视觉,以及机器人技术。

  简单地说,这些能力组成了通用人工智能,语音识别只是一个方面。手敲键盘累的时候,说话可以是另外一种替代方式,你的声音只是一种介质,并不一定是最好的输入方式。多少次你用语音问Siri一些问题,最后却不得不在谷歌上把请求敲下来?

  联系背景信息最困难

  Viv背后的团队相信,利用深度学习技术,让机器教自己如何解决问题,他们能够打造更棒的个人助理。虽然Viv团队对自己的秘密武器仍然讳莫如深,然而最近披露的消息表明他们的人工智能仍然需要一些人类指导才能建造用户案例。根据知道如何解决该问题的人提供的线索,人类可以解决问题,同样地,人类也帮助AI找到解决问题的方式。

  与人类的比较到此为止,因为人类与机器不同,人类有能力自动将问题放在不同背景下,找到解决问题的原始方法,构建知识结构。我们会自然地连接要点,找到答案做出决策,而现在的AI通常不能将问题与某些要素结合起来,且很难根据周围背景信息而改变形式。

  如果掌握背景信息,AI能够形成更智能的决定,而不仅仅靠定义明确的输入指令。这样AI就可以将过去,现在,未来的信息结合起来解决复杂信息。巴黎大学的教授Patrick Brézillon:“缺少上下背景信息的显式表达是很多基于知识的人工智能系统失败的原因之一。”的确,还有很多问题需要克服。

  教计算机联系背景处理问题是一个艰巨的难题:人们并不总是能够预测未来情况,而未来的多样性也没有止境。个人层面,用机器学习技术理解某人的社交行为和决策行为,或许需要及其漫长的用户数据输入。可能每天24小时地观察某人可以做到这点,但是因为还没有读心术,你不得不需要大声表达你的推理思维,如此机器才能模仿你思考的模式。

  利用互联网的力量

  机器学习需要海量数据。自然语言处理的数据通常搜集在语料库里,语料库是结构化的数量繁多的文本集,可用来训练AI。如果你想知道这些数据集有多大,那么可以说当Watson打败Jeopardy冠军的时候,这种数据集早已将整个维基百科数据库纳入了。

  IBM Watson有趣的一点是,它的数据集不需要预先构建,也就是说 Watson能够在无人类监督的情况下使用这些数据。如果M,这个未来目标是能够交谈以及执行复杂任务的AI,也有同样的训练方式将会怎样呢?这个模型将会是什么样?去哪里发现合适的数据呢?

  互联网上有几百万小时的会话,视频,数据等各种东西,神经网络可以以此构建智能。你想教一个机器什么是爱吗?那么就给它输入罗密欧和朱丽叶等浪漫小说吧。教它商业的东西吗,那么给它读华尔街日报的新闻。Deepmind最近给我们展示了一点类似的做法,为了教AI语言,他们给AI提供了来自CNN和每日邮报的30多万篇文章。

  数据就在那里,而现在我们似乎还浮于表面。但机器学习迎来下一波突破后,我们将能够更能理解以EB为单位的网络信息意味着什么,而这些进展将会带来变革,并大大带动超级人工智能的进展。

  除了沉迷于非结构化的在线数据汪洋中,其实能让生活更舒适的未来已经近在咫尺。每天,人们通过网络做出几百个决策,每次我们点击一个链接,都会被广告和分析公司记录下来。想象一下,你和几百万个其他用户在网络中畅游并搜集相关信息的时候,这些信息被想要理解你浏览喜好的AI所利用,它们正在利用这些数据生成跟你有关的模式。

  这种AI不仅会给你一种个性化和情景化的网络体验,也会更好地理解你的意图,并且在你表达需要之前就主动满足你的需求!哇,一个真正能够减轻你的负荷的AI个人助理真的成为现实了。

  研究人员预测,在我们真正体验伟大的普适类人智能之前,还需要至少等10年。于此同时,互联网已经为AI的巨大进展准备好了必备的材料,并且已经出现了很多bot,scrapers, analytics等API,它们让在线数据更加充实,我们也能够加以利用,那么让我们将电影与眼前实际发生的进展区分开来,去意识到,我们可以好好利用这些经常用到的数据,打造出来能够让生活更简便的AI,并且,机会很大。

     如果您对您所在行业有很深认知,也想在我们的平台上说点什么,我们欢迎您来投稿!

喜欢您正在阅读的内容吗?欢迎免费订阅泰伯每周精选电邮。 立即订阅

参与评论

【登录后才能评论哦!点击

  • {{item.username}}

    {{item.content}}

    {{item.created_at}}
    {{item.support}}
    回复{{item.replynum}}
    {{child.username}} 回复 {{child.to_username}}:{{child.content}}

更多精选文章推荐