
随着AI技术的不断发展 有关AI幻觉的新闻频频登上热搜 人们在享受AI红利的同时 也正陷入数字生存困境 你知道什么是AI幻觉吗? 你能识别出AI幻觉吗?
原来AI真的会已读乱回 社交平台上,一则名为“AI的幻觉正在加强,不是好事”的帖子收到了2.4万点赞。网友在评论区分享自己遭遇到的各种幻觉。 “我让 DeepSeek 推荐一下楼盘,他说得有理有据,连户型都选好了,我都要心动了,最后一查根本没有这个项目。”“让ds给我做个表格,它说发到我邮箱去了,我还信了,第二天问它为什么没有收到,它说它不会发邮件。” 
什么是AI幻觉?据记忆张量CEO兼创始人、上海算法创新研究院大模型中心负责人熊飞宇介绍,在人工智能特别是大语言模型的领域中,“幻觉”指的是模型生成看似合理,但实际上是无意义、与事实不符或缺乏现实依据的内容的现象。 AI幻觉又是怎么产生的呢?熊飞宇告诉记者,从大模型的原理上看,AI幻觉源于模型的统计预测特性:它通过next token prediction(预测下一个标记)进行训练,在推理时“凑合”最可能的答案来回答问题,但并不真正理解事实,当缺乏足够训练数据时,就会编造信息。 
推理能力越强的大模型幻觉率更高 推理能力越强的模型,幻觉率有时反而更高。以DeepSeek为例,其推理模型R1的幻觉率高达14.3%,是其通用模型V3(3.9%)的约四倍。这一现象表明,模型在获得强大推理能力的同时,也可能带来更多的创造性“偏差”。 此外,不同应用领域对幻觉的容忍度截然不同。在医学、法律、金融、新闻等需要高准确性的专业场景中,即使3%的幻觉率也可能带来严重后果。研究表明,大模型在这些专业领域的落地受幻觉影响严重,需要特别审慎。 
熊飞宇相信未来AI幻觉会变得可控:“未来的AI一定会与外部的权威知识系统深度融合,比如接入专业数据、领域标准,生成前先做事实验证,做到先查证再输出,这将是AI走向可靠智能的关键一步。”
AI幻觉高感知公众占比不足一成 在2025上海科技节期间举办的第四届上海科技传播大会上,上海交通大学媒体与传播学院发布了一项聚焦生成式人工智能发展与数字传播的研究。研究发现,45.6%的受访者缺乏对AI幻觉的具体风险理解,而“冷感群体”高达 29.7%,“高警觉”的人群仅占 8.5%。 该研究指出,对大模型AI幻觉高感知的公众比例不足一成,而使用频率越高、AI素养越强、学历越高的公众感知幻觉程度更低。 
好消息是,团队研究发现公众对于AI技术的理解和评估能力正稳步提升。在2023年至2025年间,公众在辨识和识别AI的局限性的能力有了显著增长。认同自己“能够评估大模型AI功能与局限性”的受访者比例从2023年的59.7%大幅上升至2025年的85.7%。 上海交通大学媒体与传播学院副院长、特聘教授徐剑提出,应在公共教育体系中系统嵌入AI素养课程,特别是在中学与大学阶段,将“识别幻觉”和“理解算法偏见”与信息检索、媒介判断等内容整合进信息素养与公民教育的统一课程体系,推动技术素养从技能型训练走向风险判断与认知建构的能力培养。
如何有效识别AI幻觉 目前,AI在青少年学习和生活中扮演着越来越重要的角色。国家二级心理咨询师姚项哲惠在接受青年报·青春上海记者采访时表示,青少年不应只把AI当做获取答案的工具,而应学会有效提问、与AI互动,并进一步分析、辨别AI生成的结果。这个过程本身比最终的结果更重要。 该怎么帮助青少年有效识别AI幻觉带来的虚假或错误信息呢?姚项哲惠建议从以下几个方面入手。 ·引导青少年意识到AI局限性,其生成内容可能存在虚假和错误,鼓励青少年通过多种途径交叉验证信息来源,避免单一依赖AI生成内容。 ·重视批判性思维培养,引导他们从不同角度分析问题,进行假设与验证,提升独立思考和解决问题的能力。 ·最增强媒介素养教育,包括了解AI的工作机制、识别其局限性、理解信息背后的立场与动机等。 家长和教师也需转变观念:“与其一味限制孩子使用AI,不如与孩子共同探索如何合理利用AI资源。”家长和教师自身也应提升媒介素养,与孩子一起学习如何辨别信息真伪、评估其信息来源可靠性。 熊飞宇认为,识别AI幻觉的关键在于质疑和验证。比如,当听到像“吃香蕉能治感冒”这样的说法时,不应盲目相信或否定,而是去找权威来源。同时,还可以用“反向提问”的方式,比如换个角度问AI:香蕉有哪些成分?它们对病毒有什么影响?这样可以快速测试它是不是在“编故事”。
作者:青年报·青春上海记者 刘秦春 责任编辑:杨昊霖 校审:姚佳森 终审:沈蔚
|