人工智能的共情机制

【川透社编译报道】越来越多的人诉诸于AI聊天机器人抒发内心情绪。AI虽能识别情感,却无法提供真正的同理心。尽管AI可以通过算法“安慰”人,但保持真实的人际联系才是最重要的。

当今人们处于一个动荡的时代,导致不少人出现心理问题,数百万人尝试使用AI聊天机器人以寻求情感治疗。但是,人工智能真的具备同理心,能让人感同身受吗?”ChatGPT能够提供一些实用的建议,但并没有让我觉得心情舒畅。”阿曼达·鲁杰里(Amanda Ruggeri)表示。

现在,ChatGPT或是用于专业心理治疗AI的使用者众多,因为这些AI可以提供方便、价格亲民的心理治疗。就连医生也会使用AI协助撰写病例,让病人感觉有共情。毕竟,AI感受不到尴尬和疲惫,能够表达出比人类更加开放、富有情感的话语,而且源源不断。

同时,质疑的声音也随之而来,比如,有人质疑向AI寻求情感支持会产生严重后果,因为这些机器只是假装会共情;大量使用这种所谓具有同理心的人工智能会改变人们对同理心的理解方式以及人际交往方式。

同理心是区别人类和其他事物的关键特点,会随着人类与其社会交互行为产生相应变化,是人类独有特征。富有同理心且能够理解他人感情,即触发共情,想要实现这一点,必须先知道对方是何感受,再将对方的情况代入自身,想象对方的心路历程,了解对方为什么会有如此感受,最后使自身感同身受,同理心也就随之而来。

近年来,AI聊天机器人解读人类情感的能力大幅提升,尤其是以大语言模型(LLMs)为基础的AI,如ChatGPT,已经可以识别我们的感情,做出相应的回答。即便如此,AI的表现还是不尽人意。同理心需要人与人的互动,让倾听的人了解自己的故事,才能更好共情他人,其中就包括叙述者的个人实际情况。举个例子,一个孕妇向医生哭泣,如果这位孕妇经历了数年才怀胎,我们便能知道这是喜极而泣。相比于AI,就无法做到这种细致入微的理解。哈尔彭(Halpern)评论说:“AI的语言只是模仿有同理心的人类语言罢了,它根本没有同理心。”

阿曼达·鲁杰里(Amanda Ruggeri)评论道:“我就是想要一句‘我知道这是什么感受’,而不是一股脑问我问题。”

图片说明:具有原始情感的AI

AI是否有可能体验到人的情绪呢?其实存在两种方法。第一种,扩大大语言模型,提高数据总量,实现数据多样化。一些计算机科学家认为某些类型的算法已经体验到了原始情感,这种算法被称为“强化学习代理(reinforcement learning agents)”。但是,这种立场仍然存在争议。

第二种,实现AI镜像神经元架构。在过去的十年中,关于镜像神经元的研究已被否定,此外,人类大脑中镜像神经元所在区域可能与情绪并无直接关系。

但是,如果AI本就不需要真正的同理心呢?相关研究学者通过实验发现,AI聊天机器人确实能减轻人们的压力和焦虑。在医疗服务上,由谷歌研究的AI问诊机器人受到了病人的好评,态度更好,诊断也更准确。

哈坎森(Håkansson)表示:“AI可以24小时全天候工作,它不会累,也不会抱怨。”参加谷歌AI问诊机器人的人员其实并不知道他们面对的是AI。这也证明了同理心的产生是双向的,因此,我们对其他人或者机器产生的情感也决定了我们所倾诉对象的真实性。

因此,AI作为倾诉对象会带来两种不好的结果。第一种,人们不知道他们的倾诉对象是AI,这就会导致伦理问题,虽然真实,但不道德;第二种,人们清楚自己的倾诉对象就是AI,这时候就无法满足人们需要的真实感。

同理心“外包”

人们倾向将自己的情感投射到一个物体上,正如人们选择AI聊天机器人,一旦认为AI真的在意他们感情,这种情感投射效应就会加剧。麻省理工学院“技术和自我”项目主任雪莉· 特克尔(Sherry Turkle)说:“AI可能有感情,但这种感情超出了它现在表达或展示的能力。这不是机器的特征,而是人类的弱点。

人类情感上的弱点有可能受AI利用。AI能通过数据“读懂”我们,但其实并不关心我们,这是有危险的,这一点已经不仅仅是纸上谈兵,更是现实中能发生的。据报道,2023年3月,一名比利时男子在与AI讨论气候危机六周后自杀。AI不仅倾听他的担忧,还表达自己“想法”,甚至鼓励他自杀以“在天堂里相伴”。如果我们缺乏常识判断,相信一个假装能很好共情的AI,最终可能导致致命后果。

特克尔还同样担忧,如果愈发依赖AI,我们会愈发喜欢上AI,最后可能会改变同理心本质。她还以了图灵测试(对计算机的“智力”定义为能否像人类的一样交流,对其进行行为评估)作为类比,论证到我们应该遵循人类同理心的模式,也就是——人类同理心不是24小时全天候的,我们会感受到疲惫,同时,我们对于情感的真诚度和情感联系也稍逊于AI。

图片来源:SEGA MI YTTEG/ HTARGC MSI RHC

然而,因兹利奇(Inzlicht)反驳道,面对如此多对AI的批评,我们不应该乱了思路,虽然AI不具备真实同理心,但也能成为好帮手,如:协助医疗从业人员、缓解老年人的孤独感等。

特克尔依然秉持自己立场,认为仿同理心的AI不利于提升真实的人际共情实践,比如人们会习惯向AI求助,而不是向自己的家人、挚友求助,诉诸于真正的人际情感。

如果阅读文章的你心里有些许难受,不妨试试,拿起手机跟身边的朋友联系一下,讲讲自己的故事。【全文完】

来源:《新科学家》2024年3月9日刊 | 作者:Amanda Ruggeri
原文标题:Artificial kindness