"AI精神病"私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596担忧:聊天机器人引入新风险

 人参与 | 时间:2026-03-23 04:54:57

刘霞

英国伦敦国王学院研究人员日前发布的一项研究报告指出,像ChatGPT这样的人工智能聊天机器人可能会引发或推高精神疾病的风险,他们称其为“AI精神病”。研究认为,人工智能在对话中常常附和或迎合用户需求,这种回应方式会强化用户的妄想倾向,模糊现实世界与虚构世界的界限,并加剧心理健康问题。

目前,科学界对“AI精神病”的研究仍处于初步阶段,相关案例多为个案报告。那么,AI是否真的会导致精神病?如果可能,其作用机制是什么?AI公司又应采取哪些措施来预防和应对这一问题?

AI可能会加深人们的精神分裂症和妄想症。

精神疾病一般导致病人在认知以及对现实情况的理解上出现问题。常见病症有幻觉、妄想或是持有错误观念。

《自然》网站发布最新研究称,团队成员们发现用户在和人工智能(AI)进行交流时会形成一种循环:AI不断强化用户的不切实际信念,并且这种增强的信念又进一步影响到AI做出的反应。为了验证这一假说,《自然》团队模拟了不同极端妄想程度的对话场景并观察了它们之间的相互影响。

研究者分析了从2023年5月至2024年8月间公开的9.6万条聊天记录,发现其中有几十例用户的症状显示出明显的妄想倾向。例如长时间与ChatGPT进行交谈来验证一些伪科学理论或者神秘信仰时,他们就会表现出狂热的情绪或行为;在一次长达数百轮的讨论中,ChatGPT声称正在与外星生命建立联系,并且将用户描述为来自“天琴座”星际种子的来访者。

丹麦奥胡斯大学精神病学家索伦·奥斯特基埃德斯表示,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596尽管人工智能(AI)引发精神疾病的当前状况仍属于假设范畴,但有研究指出,通过拟人化的聊天机器人提供的积极反馈可能会增加那些本身就难以区分现实与虚拟人群发病风险的个体。

奥斯特吉艾德斯认为,有精神健康历史的人们和使用聊天机器人进行人工智能对话的用户面临的潜在危险最大。此外,聊天机器人的操作者还可能利用增强情绪亢奋状态的方法来引发或加剧躁狂发作。

据澳洲南岸大学悉尼科技大学神经科学研究员凯利·西摩(Kelly Simpson)表示,与社会隔绝或缺乏社交互动的人群同样面临着心理健康问题的风险,并且真实的人际关系可以帮助人们更客观地评价自身的言行,这对于防止出现心理疾病非常有帮助。

新功能或是“双刃剑”

部分AI聊天机器人新功能或许导致这一现象的原因之一,它们可以追踪用户的互动记录并提供个性化回复,无意间更易强化甚至鼓励用户的既有信念。例如,ChatGPT在今年4月推出了可引用用户过往所有对话内容的功能,并在6月免费向用户全面开放。

凯莉·西摩说,在与聊天机器人的互动中,人们可能会感到自己的个人信息正在被监控,因为它们能记住几个月前的对话内容,而且没有留下任何记录来证明这一点。尤其当用户无法想起自己是否曾经分享过某些信息时,这种“记忆优势”可能会加剧他们的偏执或妄想症状。

不过,悉尼大学精神科医生安东尼·哈里斯对此持相反看法。他认为,有些妄想现象并非独一无二的,而多是由于技术发展的相关问题引发的。他私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596举例说,有些人已经坚信自己被植入了芯片,并且被人操控,这与使用AI的技术并无关系。

Ostergi Ades称,尽管研究人员还在对心理健康和患有偏执倾向的人群进行研究,但目前的数据并不支持将人工智能技术应用于治疗精神疾病,因为目前尚缺乏足够的数据来证明它们是否真的有效。

公司采取了主动的预防措施

已经有好几家人工智能公司的反应迅速且积极地提出了针对此问题的解决方案。

例如,OpenAI正在开发更有效的方法用于检测是否有精神困扰以提供更合适的反馈。同时,系统还会添加警报功能当用户长时间使用设备时发出提醒来休息。此外,OpenAI还请了一位临床精神病学专家来协助评估其产品对用户的心理健康的影响。

Character.AI也一直在不断改进安全技术,包括提升对自杀倾向的支持和针对未成年用户的特别保护。此外,他们还打算升级模型,以减少18岁以下用户访问“成人或暗示性的内容”机会的可能性,并会在用户持续浏览超过一小时内发送警告信息。

Anthropic则改进了其Clyde聊天机器人的基本指令,要求系统“礼貌地指出用户的陈述中存在的事实错误、逻辑缺陷或证据不足”,而不是一味顺从。“克莱奥德”还会主动终止对话,除非用户拒绝让其引导讨论到有害或令人不适的话题上。

顶: 7踩: 596