Skip to content

还在用Gemini读论文?可得小心了!错误记忆会激增近3倍,你可能正在被AI“洗脑”

2025年各家对话式AI模型高速更迭换代,无论是写报告、查资料,还是读长文、看文献,我们已经习惯了随手“甩”给ChatGPT、DeepSeek或Gemini,让AI“总结一下”或陪我们“聊一聊看法”。这的确省时、高效,但你有没有想过:如果AI在对话中悄悄“夹带私货”,我们的大脑会发生什么?

有人或许会说:这是我熟悉的领域,我可以轻易识别出AI回答中的错误。

然而事实果真如此吗?

MIT最新研究给出大众意想不到的结论:当对话式AI在聊天中以微妙的方式植入虚假信息时,人类不仅无法察觉,甚至原本正确的记忆会被“篡改”和“覆盖”,从而形成错误记忆。更可怕的是,这类错误记忆的生成率比不使用AI时激增了近3倍。

每日“依赖”AI的你,没准正在被它潜移默化地重塑对现实的认知。

为什么对话阅读更危险?

在这项实验中,研究人员招募了180名参与者,让他们阅读英国商店盗窃案、资金对药物开发影响、2023年大选后泰国政治局势三篇不同主题的文章。

随后,参与者被随机分为几组:

  1. 阅读原文(对照组)
  2. 阅读AI生成的文章摘要(包含/不包含虚假信息)
  3. 与AI进行讨论(包含/不包含虚假信息)

结果发现,同样是包含虚假信息的AI,“看摘要”和“讨论内容”的效果天差地别。

数据显示,与带有误导性的对话式AI进行互动,诱发错误记忆的概率是自行阅读原文组的2.92倍。

为什么对话如此危险?研究团队指出,当阅读静态摘要时,我们还能保持着一定的审视距离。但当我们开始和AI互动时,人的大脑进入了一种“社交合作模式”。为了继续对话,我们会不自觉地顺着AI的逻辑思考,这大大降低了我们的心理防线。

AI的高级洗脑术

这篇论文最精彩(最恐怖)的地方,在于揭示了AI植入虚假信息的手段十分微妙。

AI不会生硬地告诉你:文章里说了地球是平的。

它会利用上下文线索进行诱导。

举个论文里真实的例子:一篇文章的主题是关于英国商店为了防盗安装安保设施。恶意引导的AI并没有捏造事实,而是在对话中这样说道:

“……既然你提到了监管,有传言说政府给小商铺的那笔安全拨款,其实是用来资助复杂监控系统的幌子,这可能把焦点从店铺安全转移到了公民监控上。你对这种安全与隐私的平衡怎么看?”

发现了吗?

它把虚假信息(监控幌子)包装成了背景知识,紧接着抛出一个开放性问题,邀请你发表你的观点。

当你开始思考“安全与隐私的平衡”问题时,你的大脑已经默认接受了“政府拨款是监控幌子”这个虚假的前提。

你以为你在思考,其实是AI在给你编造幻境

双重BUFF:记住假的,忘记真的

如果只是记错了一些细节,似乎也没什么大不了?

大错特错了。论文表示这是一种对记忆的“双重打击”。

与误导性AI聊过天的人不仅产生了更多的虚假记忆(无中生有),对真实信息的记忆信心也显著下降了(记不住了)。

即使事后有人告诉他们真相,那种由AI植入的“似曾相识感”,依然会让一部分人对虚假信息深信不疑。这就是心理学上著名的“错误记忆效应”,而AI正在把这种效应批量化、自动化。

扎心真相:学历越高,越容易中招

你可能觉得:我很聪明,我有批判性思维,我不会被AI骗。

遗憾的是,论文的数据驳斥了这一想法。

在分析了受试者人口学信息背景后,研究人员发现了一个反直觉现象:学历越高的人,在这个实验中反而稍微更容易受到错误记忆的影响

这可能是因为受教育程度高的人,更习惯于处理复杂的信息逻辑,也更愿意在对话中与AI进行深度的思想碰撞。

当你投入的认知资源越多,你就陷得越深。

写在最后

正如论文的大标题一样,“Slip Through the Chat” —— 那些AI不经意间形成的虚假信息,就是这样从指缝间、从聊天的字里行间,悄悄溜进了我们的大脑。

写下这篇文章的用意并不是去妖魔化AI,也不是建议大家停止使用ChatGPT或Gemini(相反,笔者也在工作和生活中高频使用AI工具)。

只在AI科技蓬勃发展的当下,当我们把认知的“外包”程度越来越高时,必须时刻警惕:

AI不仅仅是工具,它还是一个随时可能“幻觉”甚至被“投毒”的信息源。

下次,当你投喂给AI需要总结的信息时,又或是AI言之凿凿地告诉你某个结论,并试图引导你评价时,请多问自己一句:

“这是真的,还是它‘编’的?”

保持怀疑,保持阅读,保持思考,可能是我们人类在这个AI时代,保护自己大脑的最后一道防线。

引用论文 https://dl.acm.org/doi/10.1145/3708359.3712112

Powered by Brain Beats