什么是 AI 幻觉?
AI 幻觉是指人工智能模型——尤其是大型语言模型(LLMs)和生成式 AI 系统——产生形式上看似合理,但包含虚假、编造或误导性信息的输出。这些“幻觉”既可能是捏造不存在的事实和引文,也可能是对用户问题的错误解读。尽管这类输出看起来连贯且具有说服力,但它们偏离可验证的现实,对于依赖 AI 生成内容的任何应用都构成严峻挑战。在这些系统日益融入医疗、法律、金融和新闻等对准确性要求极高的关键领域的时代,理解 AI 幻觉尤为重要。
我们如何识别幻觉?
AI 幻觉有多种表现形式:
- 捏造的事实:AI 可能生成听起来可信的历史事件、法律判例或医学研究,但这些内容实际上并不存在。
- 错误的数值数据:定量错误,例如错误的统计数据或日期。
- 引言错归:将陈述归因于错误的个人或机构。
- 错误推理:缺乏证据或上下文支持的逻辑跳跃。
通过将输出与可信的数据来源进行比对——借助事实核查库或人工专家——用户可以发现幻觉实例,但这一过程耗费大量资源。
为什么 AI 模型会产生幻觉?
技术层面是什么驱动 AI 幻觉?
从本质上看,大多数 LLM 是基于从海量数据集中学习到的模式来预测序列中下一个 token 的预测引擎。这种概率机制与以下因素叠加,会导致幻觉:
- 训练数据的局限性:大规模数据集不可避免地包含偏见、过时信息和噪声。模型从这些不完美数据进行泛化时,可能生成有问题的输出。
- 目标函数的约束:模型优化的是似然或困惑度,而非事实准确性。高似然的序列仍可能是错误的。
- 采样策略:温度缩放、核采样等解码方法为提升创造性而引入随机性,但也可能放大错误。
- 模型架构:基于 Transformer 的架构缺乏内在的锚定机制;它们完全依赖训练数据中的模式,而无法直接进行外部验证。
这些基本原理使 AI 幻觉成为生成式 AI 系统的内在副产物。
更先进的模型会更常出现幻觉吗?
与直觉相反,最复杂的模型可能表现出更高的幻觉率。OpenAI 最新的推理模型 o3 和 o4-mini 的幻觉率分别为 33% 和 48%——显著高于早期版本(如 GPT-4)。这种上升归因于这些模型更强的流畅性与构建有说服力叙事的能力,它们在无意中更有效地掩盖不准确之处。
提示工程如何减少 AI 幻觉?
提示的清晰性与上下文
一种基础策略是编写提供明确指令和充足上下文信息的提示。清晰、结构化的提示可减少歧义,引导模型产生期望的响应,抑制臆测或编造的内容。Microsoft AI Builder 团队的指南强调,提示应包含:(1) 精确的任务描述,(2) 相关上下文或数据,(3) 明确的输出约束(例如,“如果不确定,请回答‘我不知道。’”)。实证测试显示,在企业环境中,具备良好上下文的提示可将幻觉率降低 15% 以上。
“According to…” 锚定技巧
一种最新的提示方法“According to…”技巧,指示模型将其回答归因于可信的信息来源,例如 Wikipedia 或特定领域数据库。该方法源自新闻业的来源归属实践,可提高模型从其训练集中事实性内容中取材的概率,而非凭空捏造。实验表明,添加诸如“According to Wikipedia”之类的措辞可将幻觉减少多达 20%。
指令框架与正向提示
研究表明,以正向方式表述的指令——告诉模型该做什么而不是避免什么——能得到更可靠的结果。负向提示(例如,“不要产生幻觉”)常常会扰乱模型的 token 预测动态;相反,明确的正向指令(例如,“仅提供可验证的事实”)会产生更干净的输出。将正向表述与条件语句结合(“如果模型无法验证,请回答‘我不确定。’”)可进一步提升准确性,因为在设有安全网的情况下,模型更不容易盲目猜测。

开始使用
CometAPI 提供统一的 REST 接口,将数百个 AI 模型(Gemini Models、Claude Model 和 OpenAI models)聚合到一致的端点之下,并内置 API key 管理、使用配额和计费看板。无需再同时处理多个厂商的 URL 和凭证。
在等待期间,开发者可以通过 CometAPI 访问 Gemini 2.5 Pro Preview API、Claude Opus 4 API 和 GPT-4.5 API,所列最新模型以文章发布之日为准。开始之前,请在 Playground 探索模型能力,并查阅 API guide 获取详细说明。访问前请确保已登录 CometAPI 并获取 API key。CometAPI 提供远低于官方价格的定价,助您集成。
结论
人工智能幻觉是 AI 安全与可靠性的关键前沿问题。尽管前沿模型不断突破机器生成能力的边界,它们倾向于“编造”看似可信但虚假的信息,这凸显了健全的缓解策略、严格的人类监督与持续研究的必要性。通过将诸如 RAG 与语义熵检测等技术创新,与合理的风险管理和监管指导相结合,相关方能够在发挥 AI 创造力的同时,防范其最隐蔽的错误。
