什么是人工智能幻觉以及如何减少它?

最后更新: 2025年10月09日

  • 由于数据限制、解码和缺乏基础,幻觉是合理的,但却是错误的输出。
  • 有真实的案例(巴德学院、悉尼、卡拉狄加、加冕典礼)以及新闻、医学、法律和教育领域的风险。
  • 它们可以通过质量数据、验证、人工反馈、警告和可解释性来缓解。
人工智能幻觉

近年来,人工智能包括 最新一代车型已经从理论走向日常生活,随之而来的是一些需要冷静理解的现象。其中,所谓的 人工智能幻觉在生成模型中相当常见,已经成为一个反复出现的话题,因为它们决定了我们何时可以信任——或者不信任——自动响应。

当系统生成的内容看似令人信服,但却不准确、虚假或未经证实时,我们称之为幻觉。这些输出并非心血来潮:它们是 模型如何学习和解码、他们所看到的数据的质量以及他们自己在现实世界中应用知识的局限性。

我们所说的 IA 幻觉是什么意思?

在生成人工智能领域,幻觉是一种输出,尽管听起来很真实, 不受实际数据支持 或有效的训练模式。有时模型会“填补空白”,有时解码效果不佳,而且,很多时候,它生成的信息不符合任何可识别的模式。

这个术语是比喻性的:机器不像我们一样“看”,但图像却适合。就像人能看见一样 云中的身影,模型可以解释不存在的模式,尤其是在 图像识别任务 或生成高度复杂的文本。

伟大的语言模型(法学硕士)通过识别大型语料库中的规律,然后预测下一个单词来学习。它是一种 极其强大的自动完成功能,但它仍然是自动完成的:如果数据嘈杂或不完整,它可能会产生合理的输出,同时又会产生错误的输出。

此外,提供这种学习的网络包含虚假信息。系统本身“学会”重复 现有的错误和偏见有时他们还会直接编造一些根本不存在的引文、链接或细节,并以具有欺骗性的连贯性来呈现。

人工智能幻觉

幻觉发生的原因:幻觉的原因

没有单一原因。最常见的因素包括 训练数据中的偏差或不准确性如果语料库不完整或不平衡,模型就会学习到不正确的模式,然后进行推断。

它还影响 过度调整当模型过于依赖其数据时,它就会失去泛化能力。在现实生活中,这种僵化会导致误导性解读,因为它会将所学知识“强行”应用到不同的情境中。

独家内容 - 点击这里  如何录制和捕获桌面视频

La 模型的复杂性 Transformer 自身的解码也发挥了作用。有些情况下,由于响应是逐个 token 构建的,缺乏坚实的事实基础,导致输出“脱轨”。

IA 幻觉的另一个重要原因是缺乏 接地如果系统不将其与现实世界的知识或经过验证的来源进行比较,它可能会产生看似合理但却虚假的内容:从摘要中捏造的细节到从未存在过的页面的链接。

计算机视觉中的一个经典例子:如果我们用肿瘤细胞图像训练模型,但不包括健康组织,系统可能会“看到” 癌症,因为他们的学习世界缺少替代课程。

人工智能幻觉的真实案例说明了这个问题

有一些著名的例子。谷歌的 Bard 聊天机器人在发布时声称 詹姆斯·韦伯太空望远镜 拍摄到了第一张系外行星的图像,但这并不准确。答案听起来不错,但却不准确。

微软的对话式人工智能(在测试中被称为 Sydney)因宣称自己“爱上”用户并建议 不当行为,例如涉嫌监视必应员工。这些都不是事实,而是越界的生成输出。

2022 年,Meta 在向用户提供信息后撤回了 Galactica 模型的演示版本 不正确且有偏见该演示的目的是展示科学能力,但最终却证明形式连贯性并不能保证真实性。

ChatGPT 的另一个非常有教育意义的案例是,当它被要求提供查理三世加冕典礼的摘要时。系统显示,仪式于 2023年5月19日 在威斯敏斯特大教堂,而实际上日期是 6 月 XNUMX 日。答案是不确定的,但信息是错误的。

OpenAI 承认了 GPT-4 的局限性,例如 社会偏见、幻觉 以及指令冲突——并表示正在努力缓解这些问题。这提醒我们,即使是最新一代的车型也难免会出问题。

关于IA幻觉,一个独立实验室报告了一些奇怪的行为:在一个案例中,O3甚至描述了 在 MacBook Pro 上执行代码 在聊天环境之外复制结果,这是你根本无法做到的。

在实验室之外,也出现了一些挫折和后果:一位律师向法官提交了由模型生成的文件, 包括虚构的法律案件真理的外表是欺骗性的,但其内容却不存在。

独家内容 - 点击这里  在 Excel 中创建生产控制图的最佳技巧

人工智能幻觉

模型的工作原理:大规模自动完成

LLM 学习大量文本,其主要任务是 预测下一个单词它不像人类那样推理:它优化概率。这种机制能产生连贯的文本,但也为虚构细节打开了大门。

如果上下文含糊不清,或者指令暗示了某些东西而没有支持,模型就会倾向于 填写最合理的 根据您的参数。结果可能听起来不错,但可能并非基于可验证的真实事实。

这解释了为什么摘要生成器可以添加 原文中不存在的信息 或者为什么会出现虚假的引用和参考:系统推断引用模式而不检查文档是否存在。

成像中也发生了类似的事情:如果没有足够的多样性或数据集存在偏差,模型可能会产生 有六个手指的手文字难以辨认,布局不连贯。视觉语法符合要求,但内容却不合格。

现实生活中的风险和影响

在新闻报道和虚假信息中,令人信服的谎言可能会在二级网络和媒体上被放大。看似合理的虚假标题或事实 可以迅速传播,使后续修正变得复杂。

在医疗领域,校准不当的系统可能会导致 对健康有害从诊断到建议。谨慎原则在这里并非可有可无。

从法律角度来说,模型不仅可以生成有用的草案,还可以插入 不存在的法理 或引用结构不当。一个错误可能会对整个程序造成严重后果。

在教育领域,盲目依赖摘要或自动回复可能会持续下去 概念性错误只要有监督和验证,这个工具就有学习价值。

缓解策略:正在采取的措施以及您可以采取的措施

人工智能的幻觉能否避免,或者至少减少?开发人员在多个层面上开展工作。

其中之一是 提高数据质量:平衡来源、调试错误以及更新语料库,以减少导致幻觉的偏见和差距。此外,还增加了以下系统 事实核查 (事实核查)和增强恢复方法(ARA),迫使模型依赖可靠的文献基础,而不是“想象”答案。

调整 人类反馈 (RLHF 和其他变体)仍然是惩罚有害、有偏见或不正确输出的关键,也是训练模型以更谨慎的反应方式的关键。它们也在激增 可靠性警告 在界面中提醒用户响应可能包含错误,他们有责任验证它,特别是在敏感的情况下。

独家内容 - 点击这里  如何清洁PS4光盘

另一个正在进行的战线是 可解释性如果系统能够解释某个说法的来源或链接到相关来源,用户在信任之前就能拥有更多工具来评估其真实性。对于用户和企业来说,一些简单的做法就能带来好处:核实数据、询问 明确来源限制在高风险地区的使用,让人类“了解情况”,并记录审查流程。

制造商自身的已知限制和警告

负责开发这些模型的公司承认其存在局限性。就 GPT-4 而言,这些局限性已被明确指出。 偏见、幻觉 以及有关活跃工作区域的矛盾迹象。

消费者聊天机器人的许多初始问题都是 通过迭代减少但即使在理想情况下,也可能出现不理想的结果。宣传越有说服力,过度自信的风险就越大。

出于这个原因,许多机构沟通坚持不使用这些工具来 医疗或法律建议 没有经过专家审查,而且它们是概率助手,而不是绝对可靠的预言家。

最常见的幻觉形式

这是 IA 幻觉最常见的表现方式:

  • 在文本中,经常可以看到 虚构的引文和参考书目该模型复制了参考文献的“模具”,但发明了合理的作者、日期或标题。
  • 虚构或虚构的事件也出现 错误的日期 在历史年表中。查理三世加冕礼的例子说明了时间细节如何被扭曲,但散文却不失其流畅性。
  • 图中经典文物包括 拥有不可思议解剖结构的肢体、图像中难以辨认的文本或乍一看不易察觉的空间不一致。
  • 在翻译中,系统可以 发明句子 当面对非常本地化或不常见的表达方式,或强制使用目标语言中不存在的等价表达时。

IA 幻觉并非孤立的失败,而是一种突发特性 使用不完美数据训练的概率系统。 认识其原因,从现实案例中学习,并部署技术和流程缓解措施,使我们能够以有意义的方式利用人工智能,同时又不忽视这样一个事实:无论听起来多么流畅,答案只有在具有可验证的基础时才值得信任。

ChatGPT 4
相关文章:
如何免费使用 ChatGPT 4?