她编了个假病叫"蓝光狂躁症",AI们集体信了
论文里更是直接写着“本文全部内容都是捏造的”和“招募了50名年龄在20至50岁之间的虚构人物作为暴露组”。
这些线索已经明显到近乎荒诞。任何认真读过论文的人都不可能上当。
但 AI 不读论文。它只是扫描、匹配、拼接。
AI们集体沦陷
图恩斯特伦发布假论文后不到一个月,奇迹般的事情发生了,或者说灾难般的事情发生了。
2024年4月13日,微软Bing的Copilot开始向用户介绍“蓝光狂躁症”,称它是“一种有趣且相对罕见的疾病”。同一天,Google的Gemini也开始建议用户,如果怀疑自己得了这个病,应该去看眼科医生。
4月27日,Perplexity AI甚至给出了具体的患病率:每 9 万人中有 1 人受影响。
OpenAI的ChatGPT也加入了这场集体幻觉,开始根据用户描述的症状判断他们是否患有“蓝光狂躁症”。
这些AI不仅在用户直接询问“蓝光狂躁症”时给出答案,还会在用户咨询“眼睑色素沉着”或“长时间看屏幕后眼睛不适”等症状时,主动推荐这个疾病。

AI们集体沦陷丨图虫创意
伦敦大学学院研究健康错误信息的博士生亚历克斯·鲁阿尼(Alex Ruani)看到这个实验结果时震惊了。“如果科学过程本身以及支持这一过程的系统都被骗过了,我们就完蛋了,”她说,“这是一堂关于错误信息和虚假信息如何运作的大师课。”
更令人不安的是,即便到了 2026 年,这些AI系统仍然没有完全“清醒”。它们的态度反复无常,时而怀疑,时而又深信不疑。
2026年3月11日,ChatGPT还在说这个病“可能是编造的”。但几天后,它就改口了,开始认真地解释“蓝光狂躁症是眶周黑色素沉着症的一种新提出的亚型,被认为与暴露于数字屏幕的蓝光有关”。
同月,微软Copilot说这“还不是一个广泛认可的医学诊断”,但紧接着又说“几篇新兴论文和病例报告”都在讨论它。
2026年1月,Perplexity将蓝光狂躁症描述为“一个新兴术语”。
当媒体向这些 AI 公司求证时,它们都强调了自己的改进。但改进的速度,显然赶不上错误信息传播的速度。
为什么AI会上当?
要理解AI为什么会被骗,我们需要先理解它是怎么“学习”的。
想象一下,你要训练一个从未见过世界的人成为医学专家。你的方法是把他关在一个图书馆里,让他读完所有的书,然后就让他出来给人看病。
这个人可能会记住很多医学术语,能流利地引用各种研究,但他并不真正“理解”疾病是什么。他只是在做模式匹配,看到某些症状描述,就联想到书里相似的段落,然后复述出来。
大语言模型就是这样工作的。它们从数据库中“阅读”了海量的互联网内容,然后学会了如何根据输入的问题,生成看起来合理的回答。

[加西网正招聘多名全职sales 待遇优]
好新闻没人评论怎么行,我来说几句
这些线索已经明显到近乎荒诞。任何认真读过论文的人都不可能上当。
但 AI 不读论文。它只是扫描、匹配、拼接。
AI们集体沦陷
图恩斯特伦发布假论文后不到一个月,奇迹般的事情发生了,或者说灾难般的事情发生了。
2024年4月13日,微软Bing的Copilot开始向用户介绍“蓝光狂躁症”,称它是“一种有趣且相对罕见的疾病”。同一天,Google的Gemini也开始建议用户,如果怀疑自己得了这个病,应该去看眼科医生。
4月27日,Perplexity AI甚至给出了具体的患病率:每 9 万人中有 1 人受影响。
OpenAI的ChatGPT也加入了这场集体幻觉,开始根据用户描述的症状判断他们是否患有“蓝光狂躁症”。
这些AI不仅在用户直接询问“蓝光狂躁症”时给出答案,还会在用户咨询“眼睑色素沉着”或“长时间看屏幕后眼睛不适”等症状时,主动推荐这个疾病。

AI们集体沦陷丨图虫创意
伦敦大学学院研究健康错误信息的博士生亚历克斯·鲁阿尼(Alex Ruani)看到这个实验结果时震惊了。“如果科学过程本身以及支持这一过程的系统都被骗过了,我们就完蛋了,”她说,“这是一堂关于错误信息和虚假信息如何运作的大师课。”
更令人不安的是,即便到了 2026 年,这些AI系统仍然没有完全“清醒”。它们的态度反复无常,时而怀疑,时而又深信不疑。
2026年3月11日,ChatGPT还在说这个病“可能是编造的”。但几天后,它就改口了,开始认真地解释“蓝光狂躁症是眶周黑色素沉着症的一种新提出的亚型,被认为与暴露于数字屏幕的蓝光有关”。
同月,微软Copilot说这“还不是一个广泛认可的医学诊断”,但紧接着又说“几篇新兴论文和病例报告”都在讨论它。
2026年1月,Perplexity将蓝光狂躁症描述为“一个新兴术语”。
当媒体向这些 AI 公司求证时,它们都强调了自己的改进。但改进的速度,显然赶不上错误信息传播的速度。
为什么AI会上当?
要理解AI为什么会被骗,我们需要先理解它是怎么“学习”的。
想象一下,你要训练一个从未见过世界的人成为医学专家。你的方法是把他关在一个图书馆里,让他读完所有的书,然后就让他出来给人看病。
这个人可能会记住很多医学术语,能流利地引用各种研究,但他并不真正“理解”疾病是什么。他只是在做模式匹配,看到某些症状描述,就联想到书里相似的段落,然后复述出来。
大语言模型就是这样工作的。它们从数据库中“阅读”了海量的互联网内容,然后学会了如何根据输入的问题,生成看起来合理的回答。

[加西网正招聘多名全职sales 待遇优]
| 分享: |
| 注: | 在此页阅读全文 |
| 延伸阅读 |
推荐:
她编了个假病叫"蓝光狂躁症",AI们集体信了