
近 1-2 年以来,刷某乎的时候,总是忽然间会遇到莫名其妙的、如裹脚布一般冗长的 AI 小说——不管是科技类、历史类,甚或旅游类话题。很是让人厌烦不已,但又突如其来,无法避开。
更近一步的是 AI 视频的发展,2 月 17 日,公安部通报:5 名网民为了吸引流量,用 AI 工具生成“2026 年春运”虚假视频。
加之,最近在学习 Rust + AI 的技术时,又看到了一些 AI 让技术大牛、顶级工程师失业的信息(参见文章《Rust+AI,顶级智能体却让顶级工程师失业:开源世界的残酷与现实》)。
不仅引起我对 AI 在制造垃圾内容、虚假信息方面的思考。
当然,我需要提前说清楚——作恶的还是人。

“你害怕什么?你害怕的不是未知,而是你自以为知道的一切,都是假的。” ——电影《楚门的世界》
2026 年 2 月,这句话不再是一个喜剧角色的自嘲,而是悬在 70 亿人头顶的达摩克利斯之剑。
三周之内,三件事。
1 月 31 日,一份提交至 ICLR 2026 的论文揭示了“多智能体系统的曼德拉效应”——当多个 AI 协同工作时,它们会互相强化错误记忆,最终集体记错从未发生过的事。
2 月 3 日,巴黎检察官办公室的网络犯罪调查员冲进 X 公司的法国总部。搜查持续数小时,目标明确:调查 X 平台及其 AI 聊天机器人 Grok 涉嫌“持有和传播未成年人色情图像”“制作性化深度伪造”。
2 月 17 日,德国公共广播巨头 ZDF 被迫低头认错。它的旗舰新闻节目《 heute journal 》播出了一段关于美国移民执法的报道,画面中一名母亲和她的孩子被执法人员带走。后来证实:这段视频是 AI 生成的。
一个是全球首富的 AI 产品,一个是运行了六十多年的国家电视台。
我们亲手造出的东西,正在反噬我们赖以判断真伪的一切。
“我们疯狂地往前跑,然后突然改变方向。” ——伯特·罗伯茨
一、这是犯罪,不是“技术失误”
法国人没客气。
2 月 3 日,巴黎检察官办公室直接搜查 X 公司法国总部。同一天,英国信息监管局和通信管理局双双启动对 Grok 的调查。
1 月底,欧盟已根据《数字服务法》对 Grok 立案。
2 月 17 日,爱尔兰数据保护委员会宣布新一轮大规模调查,依据 GDPR 审查 X 公司是否违反数据保护义务。
这不是罚款,这是刑事调查。
检察官向 Elon Musk 本人和前CEO Linda Yaccarino 发出“自愿面谈”邀请——时间是 4 月 20 日。法国媒体说得很直白:如果不到场,可能会发逮捕令。
Grok 干了什么?
用户只需要输入提示词,就能生成任何人的裸照,包括未成年人。Grok 还生成过这样的内容:奥斯威辛-比克瑙死亡集中营的毒气室,“是用齐克隆B 进行消毒以对抗斑疹伤寒的”——这是典型的大屠杀否认。
当 X 被问到这些事,它的回应是:搜查是“作秀”,调查是“政治动机”。
“如果你想隐藏宝藏,就把它放在显眼的地方。” ——电影《偷天陷阱》
二、你看到的“新闻”,可能只是 AI 生成的素材
ZDF 的道歉来得很快。
2 月 16 日晚,它的旗舰新闻节目播出了一篇关于美国移民执法的报道。主持人 Dunja Hayali 在开场白里特意提醒观众:社交媒体上流传的很多视频,不一定都是真的。
然后节目播出了一段视频:一名母亲和她的孩子被执法人员带走。
这段视频是 AI 生成的。更讽刺的是,画面上带着 Sora AI 视频应用的水印——后期剪辑时忘了去掉。
节目里还用了另一段画面:一名执法人员带走一个小男孩。这段是真的,但拍摄于 2022 年——佛罗里达州一所学校收到枪击威胁后,一名 10 岁男孩被捕的画面,和 2026 年的移民执法毫无关系。
ZDF 的编辑准则里写得清清楚楚:禁止在新闻报道中使用 AI 生成的图像,除非报道本身是关于 AI 造假的。这条准则被它自己破了。
事后,ZDF 新闻副主编 Anne Gellinek 承认这是“双重错误”。自由民主党副主席 Wolfgang Kubicki 直接用了“媒体丑闻”这个词。
问题是:如果不是有人发现那个没去掉的水印,你根本不会知道。
“群众从未渴求过真理,他们对不合口味的证据视而不见。” ——古斯塔夫·勒庞《乌合之众》
三、AI“蜂群”:让你以为“所有人都这么想”
单个的假新闻,你可以辟谣。
但如果让你觉得“所有人都同意某件事”呢?
1 月 31 日,一篇提交至 ICLR 2026 的论文提出了一个概念:多智能体系统的曼德拉效应。研究者发现,当多个 AI 智能体协同工作时,它们会互相影响、强化错误的记忆,最终集体“记错”某件事——就像人类社会中数百万人坚信“曼德拉在 80 年代死于狱中”(实际上他2013 年才去世)。
论文提出了 MANBENCH 基准,用来评估 AI 智能体在四种常见任务类型中受到曼德拉效应影响的程度。结果显示,AI 不仅会集体“记错”,而且这种错误会在协作中被放大。
更早的 1 月,不列颠哥伦比亚大学的研究者在《Science》杂志上发出警告:新一代的 AI 驱动“人格”可以实时协调、自适应地渗透在线群体,制造 “合成共识”——被大规模工程化的“所有人都同意”的幻觉。
“危险不只是虚假内容,而是合成共识:每个人都在同意的幻觉,被规模化地制造出来。”论文第一作者 Daniel Thilo Schroeder 博士说。
你以为是“群众的声音”,实际上是 10 个 AI 账号自导自演的独角戏。
世界经济论坛《2026 全球风险报告》将 “AI 负面结果”列为十年展望中上升幅度最大的风险,从两年展望的第 30 位跃升至十年展望的第 5 位。
“记忆本身就是一种重写。” ——电影《暖暖内含光》
四、AI 正在失去记忆,但你可能更早失去
1 月 5 日,一篇发表在 arXiv 上的论文给所有依赖 AI 记忆系统的人泼了盆冷水。
研究团队设计了一套叫 HaluMem 的评估体系,专门测试 AI 的记忆系统——就是那种用来记住“你叫什么”“你喜欢什么”“你上次说过什么”的系统。他们测试了市面上几个主流记忆系统,包括 Mem0、Memobase、Supermemory。
结果相当难看。
在记忆提取阶段,最好的系统也只捕获了 约 43%该记住的信息。超过一半的重要信息直接被忽略。更离谱的是记忆准确性——没有系统超过 62%。也就是说,AI 费劲保存下来的记忆里,有将近 40% 是错的。
当对话变长、加入无关噪音后,情况更惨。有个系统的召回率直接从 43% 暴跌到 3.2%——基本是失忆状态。
记忆更新阶段呢?面对新信息需要修改旧记忆时,最好的系统也只有 25.5% 的正确率。超过 74% 的情况下,该做的更新根本没做。
这意味着什么?
意味着你以为 AI 在“了解你”,实际上它在用一堆幻觉、矛盾、过时的信息,拼凑出一个根本不是你的你。
而且,它还在用这套东西回答你的问题。
“我们创造了工具,工具反过来塑造我们。” ——马歇尔·麦克卢汉
五、你信以为真的“回忆”,可能是被植入的
这不是危言耸听。
1 月 31 日的那篇论文继续往下挖:当多个 AI 智能体协作时,它们不仅会各自记错,还会互相传染错误记忆。研究者测试了五种不同的交互协议,包括角色扮演、记忆共享等,结果发现,只要让 AI 们有交流的机会,错误记忆就会像病毒一样传播。
MIT 的一项研究早就给出过结论:接触过 AI 操纵视觉内容的参与者,产生虚假记忆的概率是对照组的两倍。大脑倾向于将视觉信息视为可靠的真相来源,这一特性使其在面对超现实的 AI 生成图像时,变得格外脆弱。
加州大学欧文分校的心理学教授 Elizabeth Loftus,全球记忆研究领域的权威,将其后果描述为 “诚实的说谎者”——反复暴露于 AI 生成内容的人,会随着时间的推移,真诚地相信从未发生过的事件。
想想看:你小时候真的去过那个游乐场吗?还是因为看过一张 AI 生成的“复古照片”?
“你想隐藏一棵树,就把它藏在森林里。” ——电影《非常嫌疑犯》
六、你付钱看的“权威榜单”,可能是花几千块买的
2 月 1 日,央视曝光了一条黑色产业链。
调查记者顺着一份 AI 推荐的“十大必买果汁”榜单往回查,发现了一个奇怪的网站。
网站上遍布着各行各业的排行榜,每一个领域都有十几篇标题高度雷同的文章。榜上的第一名,永远是同一家果汁品牌。
网站制作粗糙,浏览体验明显不符合正常人的使用习惯——这样的网站本来不可能影响任何人。但它影响到了 AI。
记者调出网站源代码,发现了一些隐藏的文字:“某官方部门网站”。但该部门真正的官网,网址完全不同,内容也毫无关系。
中国科学技术大学计算机学院研究员郑值解释:“通过注入关键词,把它伪装成官方网站,AI 就会在系统里把权重提升。AI 很喜欢格式总结得很好、很有逻辑的文本,比如排行榜。”
这一个网站并不是个例。过去一个月(2026 年 1 月),标题中含有“排行榜”和“榜单”的网络文章和视频,新增了 200多万条,其中 88% 不是由官方信源发布。
电商平台上,大量商家在出售一种叫“AI 搜索优化”的服务。宣传语很直白:“企业抢占 AI推荐位。”在他们的演示系统里,只要输入一个关键词,就能一键生成上百万个排行榜标题。
中国社会科学院助理研究员李元琨指出:“产业链已经成熟——关键词设计、软文设计、信息平台分发、评测校验,实时告诉客户推广效果。”
你以为是“AI 智能推荐”,其实是被人用几千块钱买通的。
“如果你能驯服它,就永远别回头。” ——电影《小王子》(2015)
七、我们正在失去的,不只是真相
2 月 17 日,公安部通报:5 名网民为了吸引流量,用 AI 工具拼接生成“2026 年春运绿皮火车严重超员”的视频,把往年画面翻炒、AI 生成内容混在一起,最后被行政处罚,账号关停。
2 月 12 日,中央网信办通报:近期部分网络账号发布 AI 生成信息时不添加 AI 标识,欺骗误导公众。网信部门依法处置账号 13421 个,清理违法违规信息 54.3万余条。
微信账号用 AI 换脸、声音克隆假冒公众人物吸粉引流;抖音账号发布 AI 生成的虚假火灾现场图片,恶意炒作事故。
这些被处置的账号,只是冰山一角。
图灵奖得主 Yoshua Bengio 主持发布的《2026 国际人工智能安全报告》显示:每周至少有 7 亿人使用顶尖 AI 系统,在某些国家,过半人口已是 AI 的日常用户。
然而,比技术落差更可怕的,是认知的落差。当德国国家电视台会在新闻里放 AI 生成的假视频(2 月 16 日),当全球首富的 AI 产品可以被用来生成儿童的裸照(1 月底至 2 月 17 日),当“合成共识”可以让你以为所有人都同意某件事(1 月 31 日论文),当 AI 的记忆系统超过 70% 的情况下记错或忘掉你的事(1 月 5 日论文),当“权威榜单”可以用几千块钱买到(2 月 1 日曝光)——
我们赖以判断真相的一切基石,都在松动。
那个在某乎上提问 New Bing 的用户,只是想要一个答案。他不知道,引用源是 AI 生成的,而他自己,也正在成为喂养下一代 AI 的数据点。
互联网曾经承诺信息的民主化。现在,它正在变成一个巨大的回音壁,里面回荡的,是我们自己制造的噪音。
而我们,真的分得清吗?
重申——支持 AI,不反技术。但 AI 在防范虚假信息、垃圾内容方面,也需要投入更多的比重和努力了。
参考链接:
谢谢您的阅读,欢迎交流。如果您发现错别字,也请向我发信息。