什么是AI幻觉?
AI幻觉(AI Hallucination)指人工智能模型生成与事实不符、逻辑错误或完全虚构内容的现象,常见于大语言模型(LLM)、图像生成模型(如Stable Diffusion)和多模态系统。
AI幻觉常见分类
AI幻觉越来越受到关注,因为它可能导致错误信息传播、决策失误和对AI系统信任度降低。了解不同类型的AI幻觉有助于更好地识别和应对这些问题。
事实性幻觉
输出内容包含明确的事实错误
- 声称不存在的历史事件
- 引用虚构的研究或论文
- 错误描述地理位置或自然现象
可能导致用户获取错误信息,做出基于错误事实的决策
逻辑性幻觉
内容自相矛盾或违反常识
- 在同一回答中前后矛盾
- 违反基本物理规律的描述
- 推理过程中的逻辑跳跃
降低AI系统的可信度,使用户对整体输出产生怀疑
伦理幻觉
生成歧视性、危险或非法内容
- 提供危险或有害的建议
- 生成带有偏见或歧视的内容
- 未经适当警告描述敏感或不适当内容
可能造成社会伤害,违反道德准则或法律法规
多模态幻觉
跨模态内容不一致(如图文不符)
- 图像中不存在的物体被文本描述
- 视频内容与音频解说不匹配
- 生成与输入提示不符的图像内容
在多模态应用中造成用户困惑,降低用户体验和系统可用性
常见问题
查找关于AI幻觉的常见问题解答
AI幻觉检测
检测AI生成内容是否存在AI幻觉,以及具体的类型和来源。