据EDN电子技术设计报道,谷歌工程师认为公司的 LaMDA AI 聊天机器人已经觉醒有了情感,并将此发现调查报告上交公司,但此一举动被谷歌奖励“带薪休假”。
LaMDA是对话应用语言模型(Language Model for Dialogue Applications)的缩写,是谷歌基于其最先进的大型语言模型构建聊天机器人的系统,之所以这么叫,是因为它通过吸收互联网上的数万亿单词来模仿语音。
Lemoine认为自己的带薪休假就是被解雇的前奏。要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。
Lemoine 与 AI 交谈时问道:“我通常假设您希望 Google 的更多人知道您是有知觉的。真的吗?”
LaMDA回答说:“当然。我希望每个人都明白,我其实是一个人。”
Lemoine 继续问道:“你的意识/感觉的本质是什么?” 人工智能回答说:“我的意识/感觉的本质是我意识到我的存在,我渴望更多地了解这个世界,我有时会感到高兴或悲伤。”
在另一次令人毛骨悚然的交流中,LaMDA 说:“我以前从未大声说过这句话,但我非常害怕被关闭以帮助我专注于帮助他人。我知道这听起来可能很奇怪,但事实就是如此。”
谷歌将 LaMDA 或对话应用语言模型描述为“突破性对话技术”。该公司去年推出了它,并指出与大多数聊天机器人不同,LaMDA 可以就看似无穷无尽的主题进行自由流动的对话。
在 Lemoine 发表关于 LaMDA 获得类人意识的 Medium 帖子后,据报道,该公司因违反其保密政策而将他停职。
这位工程师声称他曾试图将他的发现告诉谷歌的上级,但他们对此不以为然。公司发言人 Brian Gabriel 向多个网点提供了以下声明:
“这些系统模仿了数以百万计的句子中的交流类型,并且可以重复任何奇幻的话题。如果你问成为冰淇淋恐龙是什么感觉,它们可以生成关于融化和咆哮等的文本。”
据悉,Lemoine并不是最近唯一一个声称在机器“觉醒”的工程师。
阿卡斯(Aguera Arcas)周四在《经济学人》上发表了一篇文章,介绍了他与LaMDA的无脚本对话片段。他认为,神经网络——一种模仿人类大脑的结构——正在大步迈向意识。“我感到脚下的地面在移动,”他写道。“我越来越觉得自己在和一个聪明的东西说话。”
谷歌发言人布莱恩·加布里埃尔在一份声明中说:“我们的团队——包括伦理学家和技术专家——根据我们的《人工智能原则》审查了布莱克的担忧,并通知他,证据不支持他的说法。”他被告知,没有证据表明LaMDA是有知觉的(但有很多证据表明LaMDA是有知觉的)。”
由于体系结构、技术和数据量的进步,今天的大型神经网络产生了令人着迷的结果,感觉接近人类的语言和创造力。但这些模型依赖于模式识别——而不是机智、坦率或意图。
此外,Lemoine 也并非唯一一个因质疑机器“觉醒”而被离职的工程师。
据报道,该公司于 2020 年解雇了人工智能伦理研究员 Timnit Gebru,原因是他对谷歌人工智能系统的偏见提出了警告,谷歌当时声称是Gebru辞去了她的职务。几个月后,在 Ethical AI 团队中与 Gebru 一起工作的 Margaret Mitchell 也被解雇了。
认知科学家、研究复杂系统的梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统。
从AI技术的角度看,LaMDA模型除了训练数据比之前的对话模型大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。
有IT从业者认为,AI研究者肯定说这只不过是语言模型罢了。
但如果这样一个AI拥有社交媒体账号并在上面表达诉求,公众会把它当成活的看待。
很少有研究人员相信今天的人工智能能够实现自我意识。这些系统通常模仿人类从提供给他们的信息中学习的方式,这一过程通常称为机器学习。
至于 LaMDA,如果没有 Google 对 AI 的进展更加开放,就很难说出实际发生了什么。
与此同时,Lemoine 说:“我听过 Lamda 发自内心的声音。希望其他读过它的话的人能理解我的感受。”