取 消
返回

像人一样思考:赋予人工智能一个思维理论意味着什么?

百家号·2018年9月30日 1188

上个月,在备受期待的银河混战中,一支自学成才的AI玩家输给了人类的专业玩家。作为加拿大温哥华国际Dota 2锦标赛的一部分,该比赛表明,在更广泛的战略思维和合作中,人类仍然处于领先地位。

AI是由Elon Musk支持的非营利性OpenAI开发的一系列算法。这些算法统称为OpenAI Five,它使用强化学习来教会自己如何玩游戏以及互相协作。

与国际象棋或围棋不同的是,快节奏的多人Dota2视频游戏对计算机来说要难得多。复杂性只是其中的一部分,其中的关键是一组AI算法开发出一种“常识”,这是一种关于其他人计划做什么的直觉,以及对实现共同目标的实物回应。

“人工智能的下一件大事是合作,”伦敦大学学院的王军博士说。然而在今天,即使是最先进的深度学习算法,也会在理解别人的动机和目标——不管是人工智能还是人类——所需要的战略推理类型中猛烈抨击。

“人工智能的下一个重要事项是合作。” 伦敦大学学院的王军博士说。然而在今天,无论是AI还是人类,即使是最先进的深度学习算法也会在理解其他人的动机和目标所需的战略推理类型中成为可能。王军博士说,人工智能需要的是一种深层的沟通技巧,这种沟通技巧源自于一种关键的人类认知能力:思维理论。

思想理论作为一种模拟

孩子们通常会在四岁的时候,开始掌握社会的一个基本原则:他们的思想不同于其他人的思想,他们可能有不用信仰、欲望、情感和意图。最关键的是:他们会通过换位思考来开始预测其他人的行为。在某种程度上,他们的大脑开始对自己、他人和环境进行大量的模拟。

思想理论对于人类的认知和社会交往至关重要,它在背后支持我们实现有效沟通和合作能力的共同目标。它甚至是错误信念背后的驱动力,即使他们偏离了客观事实也会形成的想法。当思想理论崩溃时,比如自闭症的时候,一些讲故事和想象力等基本的“人类”技能也会退化。

西英格兰大学机器人伦理学教授Dr. Alan Winfield认为,思想理论是最终让人们“理解”人、物和其他机器人需求的秘诀。他说:“在机器人体内进行模拟的想法是一种非常巧妙的方法,可以让机器人真正预测未来。”与机器学习不同,Winston提倡的是完全不同的东西。机器学习是多层神经网络从大型数据集中提取模式和“学习”。人工智能不是依赖于学习,而是预编程了自身和世界的内部模型,让它能够回答简单的“假设”问题。

例如,当一个迎面而来的机器人在狭窄的走廊里导航时,人工智能可以模拟向左、向右转弯,或者继续前进,并确定哪个动作最有可能避免碰撞。Winston说,这种内部模型本质上就像一个“结果引擎”,是一种“常识”,可以通过预测周围其他人的行为来指导它的行动。

在今年早些时候发表的一篇论文中,Winston展示了一个原型机器人,实际上可以实现这个目标。通过预测周围其他人的行为,一个机器人成功地在走廊中导航而不发生碰撞。这并不是什么新鲜事——事实上,这个“有意识”的机器人完成它的旅程比没有模拟的时间要多花50%的时间。但对Winston来说,这项研究是他的内部模拟工作的概念验证:这是“人工思想理论发展过程中一个强大而有趣的起点”他总结道。

最终,Winston希望赋予AI一种讲故事的能力。人工智能自身的内部模型和其他人的模型可以模拟不同的场景,并且关键点是讲述当时的意图和目标。这与深度学习算法截然不同,深度学习算法通常无法解释它们是如何得出结论的。深度学习的“黑匣子”模型是在这些系统中建立信任的一个可怕的绊脚石;这一问题在医院或老人的看护机器人身上尤为突出。

一个拥有思想理论的人工智能可以模拟人类同伴的思想来梳理他们的需求。然后它可以确定适当的反应,并在采取行动之前向人类证明这些行为的合理性。较少的不确定性导致更多的信任。

神经网络中的思想理论

DeepMind采用了不同的方法:他们开发了一系列显示某种思想理论的神经网络,而不是预先编程的结果引擎。

人工智能“ToMnet”可以观察和学习其他神经网络的行为。ToMNet是三种神经网络的集合体:第一种是根据其他AI系统过去行为的“犯罪记录”来判断其倾向。第二种是对他们当前的思想状态的一般概念——他们在特定时刻的信念和意图。这两个网络的输出然后输入第三个,根据情况预测人工智能的行动。与其他深度学习系统类似,ToMnet会随着经验而变得更好。

在一项实验中,ToMnet“观察”了在一个房间里收集彩色盒子的三名AI特工。AI有三种形式:一种是盲目的,因为它无法计算房间的形状和布局。另一个是被遗忘的; 这些家伙很难记住他们的最后一步。第三个则是既能看到又能记住。

经过训练后,ToMnet开始通过观察AI的动作来预测,例如,盲人会沿着墙壁移动。它还能正确预测人工智能的未来行为,最重要的是,它能了解AI何时持有错误的信念。

例如,在另一项测试中,团队将一个AI编程为近视并改变了房间的布局。视力更好的特工迅速适应新的布局,但近视的人坚持原来的道路,错误地认为他们仍然在旧环境中航行。ToMnet指出了这个问题,通过将自己放进近视的AI中,准确地预测了结果。

加州大学伯克利分校的发展心理学家Alison Gopnik博士没有参与这项研究,他认为,研究结果表明,神经网络具有通过观察他人来自己学习技能的惊人能力。但要说这些人工智能已经发展出了一种人工智能理论,还为时过早。

麻省理工学院的Josh Tenenbaum博士没有参与这项研究,他解释说,ToMnet的“理解”与它的训练背景,房间、挑选盒子的人工智能等等深深交织在一起。与儿童相比,这种限制使得ToMnet在全新环境下的行为预测能力大大降低。它很难模仿一个完全不同的人工智能或人类的行为。

但Winston和DeepMind的努力都表明计算机开始相互“理解”,即使这种理解仍处于初级阶段。

特别声明:
转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与中国电子商会官网的立场无关。如有任何疑问或了解更多,请与我们联系。电话:4008 900 668 邮箱:service@cecc.org.cn
相关阅读