"破解生成私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596式AI‘幻觉’困境

 人参与 | 时间:2026-03-24 02:45:19

刘霞

在快速进步的人工智能(AI)技术面前,生成式AI凭借其非凡的创造力正不断推翻人们的认知极限。然而即使是那些似乎具有超凡智慧的AI,也难以避免“幻觉”困扰。这里的“幻觉”,指的是由人工智能生成的信息虽然看似逻辑合理但实质上却不准确或不真实的情况。

英国《自然》杂志网站在1月22日的文章指出,人工智能(AI)可能会带来严重的后果,并且科学家们正采取各种措施来降低其发生的可能性。这些措施包括增加事实核查以及对大脑进行扫描等,目的是为了促进AI的健康发展、高效发展。

主因在于数据的模糊性。

尽管由大型语言模型驱动的人工智能系统可以生成内容,比如聊天机器人的回复,但这些系统偶尔也会编造信息、模糊事实与虚构,或者在看起来是真实陈述的语句中夹杂错误信息。这既是它们创造力的一面镜子,也是一面提醒他们需要提高质量的镜子。

佐治亚理工学院的理论计算机科学家桑托什·维马普拉解释说,大型语言模型的工作方式并不是产生确实的事实信息,而是通过模式识别生成答案。这个内部复杂的运行系统至今仍然是一个“黑盒子”令人困惑莫测。

加州Vectara公司旨在减少生成式AI中的“幻觉”。联合创始人阿姆尔·阿瓦达拉表示,在训练模型过程中,这些算法会压缩大量文本之间的关系,随后通过一个庞大网络重新构建这一内容。尽管这些模型可以重构出接近98%的训练内容,但剩下2%的内容会使它们误入歧途生成不准确或虚假信息。

导致AI出现"幻觉"的原因多样,在这些原因中,模糊性与错误是常见的因素之一。还有人认为,即便是准确无误的数据,AI也有可能产生"幻觉",这种现象跟事实的稀缺程度紧密相关。因此,私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596尽管经过人工调整过的聊天机器人能够避免出错,但还是无法完全规避。

各种领域正承受着重大的挑战

AI的“错觉”有可能对人们的劳动和生活方式产生巨大影响。

在新闻领域,大语言模型可能生成虚假新闻事件,扰乱信息传播秩序,并误导公众认知。Vectara公司针对文档内容的研究表明,在聊天机器人编造事实、虚构信息方面,其几率高达30%。世界经济论坛发布的《2025年全球风险报告》显示,错误和虚假信息是2025年全球面临的五大风险之一。

在法学界,它可能会引用虚构的法律法规条款和案例来说明问题。例如,2023年美国律师史蒂文·施瓦茨因对ChatGPT的“过分信任”,而在法庭文件中引证了不存在的真实案例。同样地,在医学领域内,该模型可能给出错误的诊断结果或提供不恰当的治疗建议,从而严重威胁患者的生命安全。

在《自然》最近的报道中指出,在科学参考文献方面出现错误的情况也十分普遍。2024年的一项研究发现各类聊天机器人提及参考文献时的出错率从30%到90%,有时甚至会偏差较大。它们可能会对论文标题、第一作者或发表日期进行调整。虽然聊天机器人上已经标上了警示标签,提醒用户需要通过二次确认来核实重要信息,但倘若用户盲目相信聊天机器人的回复,则可能导致问题的出现。

采取多项措施以减缓"幻觉"的产生

为了进一步提升AI的精确度,科学家正在尝试消除它对幻象的敏感性。

例如,提高模型的训练参数和训练时间长度可以帮助在一定程度上减少用户所感受到的“幻觉” 。但是,这种方私家侦探,侦探公司,调查公司,查人找物,商务调查,出轨外遇调查,婚外情调查,私人调查,19209219596法会带来巨大的计算成本,并可能会削弱聊天机器人的其它能力和特性 ,包括对未见数据进行预测及处理的能力。

此外,采用更大以及更加清洁的数据集进行学习可以有效减少人工智能模型“错觉”的发生。然而,当前能够使用的数据量的局限性影响了这种做法的应用范围。

增强生成检索(RAG)技术也被用于减少AI的“幻象”。这个方法通过让聊天机器人先参考给定可信文本来回复问题,以确保所给出内容的真实性和准确性,并且在医疗和法律等需要遵循经过验证知识的领域中倍受青睐。

不过美国斯坦福大学计算机科学家米拉柯·苏兹根表示尽管RAG能提升内容的真实性但这能力还相当有限苏兹根团队的研究表明一些专门用于法律研究开发的声称"无幻觉"的RAG增强模型虽然有了改善但也存在着不足。

开发人员也可以使用一个与AI训练方式不同的独立系统,通过网络搜索对聊天机器人的回复进行事实核查。例如,谷歌的双子星系统是一个典型例子,它提供了双重核查响应功能:如果内容被标为绿色,则表示其已通过网络搜索验证;如果被标为棕色,则表示其包含有争议或不确定的内容。然而,这种方法计算成本高昂且耗时,而且仍然存在“幻觉”问题,因为互联网上错误信息泛滥。

在过去六个月里,《自然》杂志上发表了一篇论文,该研究者指出他们使用了“语义熵”这一数学工具对语言模型的性能进行了评估。在人工智能语言模型训练时,这些模型会生成大量文本内容。为了确保质量与可靠性,科学家们分析模型的输出结果,并利用“语义熵”的理论来衡量其生成内容的概率不确定性,从而为用户或者模型提供警示。

美国卡内基梅隆人工智能研究员安迪·邹采用的方法是让大语言模型回答问题后,绘制出其内部激活模式。他形象地称这种做法为“给AI做大脑扫描”,这种方法可以用来识别出模型是否在诚实地说实话,还是在编造谎言。

顶: 58462踩: 919