2017年6月,在脸书公司一个名叫“FAIR”的项目中,两个人工智能机器人鲍勃和爱丽丝,在没有任何人为操纵的情况下进行了对话。起初,研究人员以为鲍勃和爱丽丝之间的对话是无效的,因为对話的内容都是一些零碎而又重复的词语。可研究人员后来发现,这段人类无法理解的对话其实是有规则可循的,是完全有效的对话。面对这样突发的情况,脸书公司关停了该项目。
事情一经公布,便震惊了全球:从某种意义上来说,机器人居然自行创造出了自己的语言!他们在说什么?他们可能会说什么?
面对舆论的压力,脸书公司研究员迈克·路易斯在接受美国著名商业媒体FastCo的采访时,公布了事件的详细经过。
原来,鲍勃和爱丽丝确实是以人类听不懂的语言进行了无障碍沟通,但这只是编程者犯的一个错误,研究人员没有设定让机器人按照人类可以理解的英文来沟通。于是,机器人在沟通中以一种类似“速记”的方式,简化了它们的交流。这段机器人自发形成的相互理解的交流,看起来令人毛骨悚然,但其实可以理解为一个非常简单的设计漏洞。之所以会关闭这个项目,是因为发现这项研究已经偏离了原项目所要达到的目的。换而言之,就是这个程序没有成功,所以干脆关闭了。
尽管是虚惊一场,人类却应为之警醒。要知道,人类胜过人工智能的地方,恰恰是我们拥有无限的创造力与情感,或许正是人类有谨慎、恐惧、猜疑等情绪,才会对人工智能的“对话”感到恐慌。不过,这也没有什么不好,在科幻电影中,拯救人类文明的主角不都是对人工智能保持警惕的人吗?
赞(0)
最新评论