张梦然是
你是否体验过在深夜时分与聊天机器人倾诉心事,得到的回应却是精准但略显机械的一番安慰呢?现在,这些AI交互式助手已经发展到了能够理解人心的程度,在许多情况下甚至比朋友更快提供建议,但是我们却很难真正被其所触动。

前不久,《自然·人类行为》刊登的一篇研究结果表明,人与人工智能之间的对话之所以会变得越来越容易,很大程度上是因为前者更愿意接纳和接受来自于他人的正面情绪表达,而非机器自动提供的正面反馈。
你是否也不认同人工智能可以真正理解你的想法呢?
五十年前,芝大哲学家约翰·豪格兰德曾认为人工智能(AI)面临的难题在于电脑根本就不在乎。他这句话至今仍被广为传颂,并且特别适合用来探讨AI和人类情感交流相关的话题。
此次包括以希伯来大学科研人员在内的研究团队开展了一系列实验,总计涉及超过六千名参与者的实验结果显示,他们被提供了一种情绪支持的回复,并且这些回复都是由同一人工智能生成式语言模型产生的,尽管有时候研究人员会告诉参与者这种回复是AI写的,而其他的则声称它们是人类创作。
当人被假定为与人类进行交流时,他们会给予积极反馈,认为AI的回复更加具备同理心和情感上的共鸣感;然而,如果他们发现对话是通过AI实现的,并且内容完全一致,他们会感到这些建议缺乏温度性,并因此感到失望。
换而言之,人们并没有不认可以AI的话语,而只是不太愿意相信这会是真的,因为人们觉得这超出了他们的想象。私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596
我们为何能信赖于人类的积极情绪?
现在的大型语言模型(LLMs)已经能够非常准确地解读和捕捉到用户的内在情感,从而能够以一种看似有深度且具有温暖关怀的姿态对用户提供回复。
比如有人对你说:“今天真辛苦”时,A.I 会回复:“听来你的确不容易,要多多保重。”这样的句子让人心生温暖与慰藉。
然而,在实验中,即使是受试者也承认人工智能的回答既逻辑又富情感,但他们仍认为其“只不过是在模拟人脑行为,并非真正理解我的痛苦”。这个现象被称作"共情怀疑症",因为人类难以将一台机器视为真正的倾听者。
有意思的是,即便人工智能在回答时是由人类在幕后“打磨”或是“引用”,如果被提问者清楚地了解了有AI参与其中的话,他们就会大大降低对这个回复的情感认同度。仿佛一旦人工智能“触碰”到这段话,它就不再拥有“人”的温度和情感。
科学家认为,这种看法源于我们对“同情”的认识——这不是仅仅表达正确的话语,重要的是必须感受他人的情绪。当得知对方是个AI时,我们本能上就会产生这样的疑惑:“既然它没有感受过悲欢离合,它怎么能理解你呢?”
这种心理自然而然地反映在人的行为中: 在实验室里,当被要求挑选一种方式时,那就是在得到从“人”那里接受的回应之前,还是立刻获得来自“AI”的信息时,人们会偏好后者。
A私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596I 情绪支持将会发展得如何呢?
这项新的研究成果并不旨在评估人工智能的好坏,而是探究人如何感知并接受来自不同来源的支持。研究者揭示了人工智能在情感支持方面的局限性,但并未否定这些技术的价值。相反,这一发现提醒设计未来的人工智能辅助系统时,需要更加重视用户的感知和深度信任问题。
比如说2024年一家名叫“Hume AI”的公司发布了一款叫做第一个能够理解同理心的对话式AI的共情语音接口该产品能识别53种情绪变化,并且演示后引起了很大的反响然而一些批评家却担心人类情感并非只有正面情绪比如当AI试图了解并学习人们的情感行为时是否会主动或被动地利用这种能力来达到某种目的这可能包括诱导购物、培养恶习或是心理虐待等等。
在最新研究成果中,人机交互大部分较为简单,仅仅只有两三回合的对话。然而,在实际生活之中,许多人已经使用人工智能助手与之进行长久的情感交流,并且这些应用往往能够建立起一种“虚拟亲密感”,这种体验也许会在未来更长的时间尺度内影响我们对人工智能同理心和引导能力的看法。
在未来,我们或许可以期待另一种模式 – 人工智能不再只是情绪的支持者,而会成为增强人类共情力的工具。例如,它可以帮助心理治疗专家在短时间内识别出情绪关键词,或者为独处的人提供即时的情感陪伴,在他们遇到真正的社交情况之前。
在一个由人类与人工智能并行发展的时代,我们应该对何谓真挚的感同身受进行再界定,并深刻反思我们是否愿意给予机器一个改变自我,成为能适时表达关心关怀的朋友的机会。
顶: 7451踩: 785





评论专区