首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >支持 AI,不反技术,但 AI,真的正在杀死“真实”——从前日虚假视频新闻和某乎烦之又烦的垃圾小说谈起

支持 AI,不反技术,但 AI,真的正在杀死“真实”——从前日虚假视频新闻和某乎烦之又烦的垃圾小说谈起

作者头像
niqin.com
发布2026-03-18 16:38:53
发布2026-03-18 16:38:53
1760
举报

近 1-2 年以来,刷某乎的时候,总是忽然间会遇到莫名其妙的、如裹脚布一般冗长的 AI 小说——不管是科技类、历史类,甚或旅游类话题。很是让人厌烦不已,但又突如其来,无法避开。

更近一步的是 AI 视频的发展,2 月 17 日,公安部通报:5 名网民为了吸引流量,用 AI 工具生成“2026 年春运”虚假视频。

加之,最近在学习 Rust + AI 的技术时,又看到了一些 AI 让技术大牛、顶级工程师失业的信息(参见文章《Rust+AI,顶级智能体却让顶级工程师失业:开源世界的残酷与现实》)。

不仅引起我对 AI 在制造垃圾内容、虚假信息方面的思考。

当然,我需要提前说清楚——作恶的还是人。

“你害怕什么?你害怕的不是未知,而是你自以为知道的一切,都是假的。” ——电影《楚门的世界》

2026 年 2 月,这句话不再是一个喜剧角色的自嘲,而是悬在 70 亿人头顶的达摩克利斯之剑。

三周之内,三件事。

1 月 31 日,一份提交至 ICLR 2026 的论文揭示了“多智能体系统的曼德拉效应”——当多个 AI 协同工作时,它们会互相强化错误记忆,最终集体记错从未发生过的事。

2 月 3 日,巴黎检察官办公室的网络犯罪调查员冲进 X 公司的法国总部。搜查持续数小时,目标明确:调查 X 平台及其 AI 聊天机器人 Grok 涉嫌“持有和传播未成年人色情图像”“制作性化深度伪造”。

2 月 17 日,德国公共广播巨头 ZDF 被迫低头认错。它的旗舰新闻节目《 heute journal 》播出了一段关于美国移民执法的报道,画面中一名母亲和她的孩子被执法人员带走。后来证实:这段视频是 AI 生成的。

一个是全球首富的 AI 产品,一个是运行了六十多年的国家电视台。

我们亲手造出的东西,正在反噬我们赖以判断真伪的一切。

“我们疯狂地往前跑,然后突然改变方向。” ——伯特·罗伯茨

一、这是犯罪,不是“技术失误”

法国人没客气。

2 月 3 日,巴黎检察官办公室直接搜查 X 公司法国总部。同一天,英国信息监管局和通信管理局双双启动对 Grok 的调查。

1 月底,欧盟已根据《数字服务法》对 Grok 立案。

2 月 17 日,爱尔兰数据保护委员会宣布新一轮大规模调查,依据 GDPR 审查 X 公司是否违反数据保护义务。

这不是罚款,这是刑事调查。

检察官向 Elon Musk 本人和前CEO Linda Yaccarino 发出“自愿面谈”邀请——时间是 4 月 20 日。法国媒体说得很直白:如果不到场,可能会发逮捕令。

Grok 干了什么?

用户只需要输入提示词,就能生成任何人的裸照,包括未成年人。Grok 还生成过这样的内容:奥斯威辛-比克瑙死亡集中营的毒气室,“是用齐克隆B 进行消毒以对抗斑疹伤寒的”——这是典型的大屠杀否认。

当 X 被问到这些事,它的回应是:搜查是“作秀”,调查是“政治动机”。

“如果你想隐藏宝藏,就把它放在显眼的地方。” ——电影《偷天陷阱》

二、你看到的“新闻”,可能只是 AI 生成的素材

ZDF 的道歉来得很快。

2 月 16 日晚,它的旗舰新闻节目播出了一篇关于美国移民执法的报道。主持人 Dunja Hayali 在开场白里特意提醒观众:社交媒体上流传的很多视频,不一定都是真的。

然后节目播出了一段视频:一名母亲和她的孩子被执法人员带走。

这段视频是 AI 生成的。更讽刺的是,画面上带着 Sora AI 视频应用的水印——后期剪辑时忘了去掉。

节目里还用了另一段画面:一名执法人员带走一个小男孩。这段是真的,但拍摄于 2022 年——佛罗里达州一所学校收到枪击威胁后,一名 10 岁男孩被捕的画面,和 2026 年的移民执法毫无关系。

ZDF 的编辑准则里写得清清楚楚:禁止在新闻报道中使用 AI 生成的图像,除非报道本身是关于 AI 造假的。这条准则被它自己破了。

事后,ZDF 新闻副主编 Anne Gellinek 承认这是“双重错误”。自由民主党副主席 Wolfgang Kubicki 直接用了“媒体丑闻”这个词。

问题是:如果不是有人发现那个没去掉的水印,你根本不会知道。

“群众从未渴求过真理,他们对不合口味的证据视而不见。” ——古斯塔夫·勒庞《乌合之众》

三、AI“蜂群”:让你以为“所有人都这么想”

单个的假新闻,你可以辟谣。

但如果让你觉得“所有人都同意某件事”呢?

1 月 31 日,一篇提交至 ICLR 2026 的论文提出了一个概念:多智能体系统的曼德拉效应。研究者发现,当多个 AI 智能体协同工作时,它们会互相影响、强化错误的记忆,最终集体“记错”某件事——就像人类社会中数百万人坚信“曼德拉在 80 年代死于狱中”(实际上他2013 年才去世)。

论文提出了 MANBENCH 基准,用来评估 AI 智能体在四种常见任务类型中受到曼德拉效应影响的程度。结果显示,AI 不仅会集体“记错”,而且这种错误会在协作中被放大。

更早的 1 月,不列颠哥伦比亚大学的研究者在《Science》杂志上发出警告:新一代的 AI 驱动“人格”可以实时协调、自适应地渗透在线群体,制造 “合成共识”——被大规模工程化的“所有人都同意”的幻觉。

“危险不只是虚假内容,而是合成共识:每个人都在同意的幻觉,被规模化地制造出来。”论文第一作者 Daniel Thilo Schroeder 博士说。

你以为是“群众的声音”,实际上是 10 个 AI 账号自导自演的独角戏。

世界经济论坛《2026 全球风险报告》将 “AI 负面结果”列为十年展望中上升幅度最大的风险,从两年展望的第 30 位跃升至十年展望的第 5 位。

“记忆本身就是一种重写。” ——电影《暖暖内含光》

四、AI 正在失去记忆,但你可能更早失去

1 月 5 日,一篇发表在 arXiv 上的论文给所有依赖 AI 记忆系统的人泼了盆冷水。

研究团队设计了一套叫 HaluMem 的评估体系,专门测试 AI 的记忆系统——就是那种用来记住“你叫什么”“你喜欢什么”“你上次说过什么”的系统。他们测试了市面上几个主流记忆系统,包括 Mem0、Memobase、Supermemory。

结果相当难看。

在记忆提取阶段,最好的系统也只捕获了 约 43%该记住的信息。超过一半的重要信息直接被忽略。更离谱的是记忆准确性——没有系统超过 62%。也就是说,AI 费劲保存下来的记忆里,有将近 40% 是错的。

当对话变长、加入无关噪音后,情况更惨。有个系统的召回率直接从 43% 暴跌到 3.2%——基本是失忆状态。

记忆更新阶段呢?面对新信息需要修改旧记忆时,最好的系统也只有 25.5% 的正确率。超过 74% 的情况下,该做的更新根本没做。

这意味着什么?

意味着你以为 AI 在“了解你”,实际上它在用一堆幻觉、矛盾、过时的信息,拼凑出一个根本不是你的你。

而且,它还在用这套东西回答你的问题。

“我们创造了工具,工具反过来塑造我们。” ——马歇尔·麦克卢汉

五、你信以为真的“回忆”,可能是被植入的

这不是危言耸听。

1 月 31 日的那篇论文继续往下挖:当多个 AI 智能体协作时,它们不仅会各自记错,还会互相传染错误记忆。研究者测试了五种不同的交互协议,包括角色扮演、记忆共享等,结果发现,只要让 AI 们有交流的机会,错误记忆就会像病毒一样传播。

MIT 的一项研究早就给出过结论:接触过 AI 操纵视觉内容的参与者,产生虚假记忆的概率是对照组的两倍。大脑倾向于将视觉信息视为可靠的真相来源,这一特性使其在面对超现实的 AI 生成图像时,变得格外脆弱。

加州大学欧文分校的心理学教授 Elizabeth Loftus,全球记忆研究领域的权威,将其后果描述为 “诚实的说谎者”——反复暴露于 AI 生成内容的人,会随着时间的推移,真诚地相信从未发生过的事件。

想想看:你小时候真的去过那个游乐场吗?还是因为看过一张 AI 生成的“复古照片”?

“你想隐藏一棵树,就把它藏在森林里。” ——电影《非常嫌疑犯》

六、你付钱看的“权威榜单”,可能是花几千块买的

2 月 1 日,央视曝光了一条黑色产业链。

调查记者顺着一份 AI 推荐的“十大必买果汁”榜单往回查,发现了一个奇怪的网站。

网站上遍布着各行各业的排行榜,每一个领域都有十几篇标题高度雷同的文章。榜上的第一名,永远是同一家果汁品牌。

网站制作粗糙,浏览体验明显不符合正常人的使用习惯——这样的网站本来不可能影响任何人。但它影响到了 AI。

记者调出网站源代码,发现了一些隐藏的文字:“某官方部门网站”。但该部门真正的官网,网址完全不同,内容也毫无关系。

中国科学技术大学计算机学院研究员郑值解释:“通过注入关键词,把它伪装成官方网站,AI 就会在系统里把权重提升。AI 很喜欢格式总结得很好、很有逻辑的文本,比如排行榜。”

这一个网站并不是个例。过去一个月(2026 年 1 月),标题中含有“排行榜”和“榜单”的网络文章和视频,新增了 200多万条,其中 88% 不是由官方信源发布

电商平台上,大量商家在出售一种叫“AI 搜索优化”的服务。宣传语很直白:“企业抢占 AI推荐位。”在他们的演示系统里,只要输入一个关键词,就能一键生成上百万个排行榜标题。

中国社会科学院助理研究员李元琨指出:“产业链已经成熟——关键词设计、软文设计、信息平台分发、评测校验,实时告诉客户推广效果。”

你以为是“AI 智能推荐”,其实是被人用几千块钱买通的。

“如果你能驯服它,就永远别回头。” ——电影《小王子》(2015)

七、我们正在失去的,不只是真相

2 月 17 日,公安部通报:5 名网民为了吸引流量,用 AI 工具拼接生成“2026 年春运绿皮火车严重超员”的视频,把往年画面翻炒、AI 生成内容混在一起,最后被行政处罚,账号关停。

2 月 12 日,中央网信办通报:近期部分网络账号发布 AI 生成信息时不添加 AI 标识,欺骗误导公众。网信部门依法处置账号 13421 个,清理违法违规信息 54.3万余条

微信账号用 AI 换脸、声音克隆假冒公众人物吸粉引流;抖音账号发布 AI 生成的虚假火灾现场图片,恶意炒作事故。

这些被处置的账号,只是冰山一角。

图灵奖得主 Yoshua Bengio 主持发布的《2026 国际人工智能安全报告》显示:每周至少有 7 亿人使用顶尖 AI 系统,在某些国家,过半人口已是 AI 的日常用户。

然而,比技术落差更可怕的,是认知的落差。当德国国家电视台会在新闻里放 AI 生成的假视频(2 月 16 日),当全球首富的 AI 产品可以被用来生成儿童的裸照(1 月底至 2 月 17 日),当“合成共识”可以让你以为所有人都同意某件事(1 月 31 日论文),当 AI 的记忆系统超过 70% 的情况下记错或忘掉你的事(1 月 5 日论文),当“权威榜单”可以用几千块钱买到(2 月 1 日曝光)——

我们赖以判断真相的一切基石,都在松动。

那个在某乎上提问 New Bing 的用户,只是想要一个答案。他不知道,引用源是 AI 生成的,而他自己,也正在成为喂养下一代 AI 的数据点。

互联网曾经承诺信息的民主化。现在,它正在变成一个巨大的回音壁,里面回荡的,是我们自己制造的噪音。

而我们,真的分得清吗?

重申——支持 AI,不反技术。但 AI 在防范虚假信息、垃圾内容方面,也需要投入更多的比重和努力了。

参考链接:

  1. 公安部最新通报:5 人用 AI 等工具拼接生成视频编造春运谣言被行政处罚 (腾讯网/深圳新闻网)
  2. Ireland opens new data protection probe into Grok for deepfakes (Anadolu Ajansı)
  3. Fake video ends up in “heute journal” - ZDF has to change report (blue News)
  4. HaluMem: Evaluating Hallucinations in Memory Systems of Agents (arXiv)
  5. When Agents “Misremember” Collectively: Exploring the Mandela Effect in LLM-based Multi-Agent Systems (arXiv)
  6. 央视曝光AI“虚假榜单”产业链:单月新增两百万条为“投喂”AI“量身定制”的雷同文章 (手机搜狐网/正观新闻)
  7. 春运“名场面”刷屏?假的!(福州新闻网/公安部新闻传媒)
  8. 深觀察 | 歐盟對“格羅克”展開新調查 接連不斷的調查説明什麼?(國際在線)
  9. Fake-Video landet im «heute journal» – ZDF muss Beitrag ändern (blue News)
  10. 央视曝光AI“虚假榜单”产业链:以为是权威推荐,实则是被人“投喂”的结果 (极目新闻/央视新闻)

谢谢您的阅读,欢迎交流。如果您发现错别字,也请向我发信息。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-02-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 iRust 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档