
走向未来
2025年,生成式人工智能(Generative AI)不再是遥远的技术概念,而是已经深度渗透到公众日常生活的结构性力量。最近,路透新闻研究院和牛津大学联合发布一份62页的长篇报告,通过对阿根廷、丹麦、法国、日本、英国和美国六个国家民众的调查,描绘了一幅复杂而生动的公众认知图景(感兴趣的读者可以从走向未来知识星球【https://t.zsxq.com/xpWzq】获取该报告的全文以及本文的PDF版本)。报告显示,在过去一年里,生成式AI的公众使用率几乎翻倍,其扩张速度约为本世纪初互联网普及速度的三倍。这种指数级的增长,不仅重塑了人们获取信息、创造内容的方式,也引发了公众对于其在新闻业乃至整个社会中所扮演角色的深刻思考。

本文将基于该报告的数据与发现,系统梳理公众对生成式AI的认知、使用行为、信任程度以及对其在不同社会部门应用的期望。我们将重点剖析公众对AI在新闻业应用的复杂心态,探讨其中的舒适度差距与信任赤字,并最终尝试洞察这一新兴技术对社会,特别是对新闻媒体构成的挑战与机遇。我们的分析将严格遵循报告的实证数据,力求以朴素的语言,揭示表象之下的深层结构与动因。
公众对生成式AI的认知在过去一年中实现了跨越式发展。报告显示,听闻过至少一种AI工具的受访者比例从2024年的78%上升至2025年的90%。ChatGPT依然是认知度最高的品牌,但与其它大型科技公司产品的认知差距正在缩小。这六个国家对中国的大模型认知中,DeepSeek一骑绝尘,而美国竟然是这六个国家里面使用DeepSeek最多的。这表明,AI技术正从少数技术爱好者的玩具迅速转变为大众熟知的工具。


报告指出,DeepSeek在所有受访市场中平均获得了20%的认知度,超过了Claude、Grok和Perplexity.ai。报告分析认为,这可能归功于其模型在2025年1月发布后引发的广泛媒体报道,当时被一些评论视为可能挑战美国AI主导地位的斯普特尼克时刻。

与认知度同步增长的是实际使用率。报告指出,曾使用过任何一种生成式AI系统的受访者比例从40%飙升至61%,而周活跃用户比例则从18%增至34%。其中,ChatGPT以22%的周活跃用户比例遥遥领先。然而,这个数字对于DeepSeek来说,可能并不友好。虽然DeepSeek 拥有相对较高的认知度,但在受访国家的普通民众中,周活跃用户比例平均仅为2%。如何将知名度转化为使用率,使得更多国家的公众能够使用而提升影响力,是非常值得思考以及去行动的。
2025年,生成式AI的核心应用场景发生了根本性转变。报告数据显示,每周使用AI获取信息的比例从2024年的11%翻倍增长至24%,首次超越了内容创作(21%)。这标志着公众开始将AI视为一种高效的信息检索与整合工具,而不仅仅是文本或图像的生成器。

在具体的信息获取任务中,研究一个主题(15%)、寻求建议(11%)和回答事实性问题(11%)成为最普遍的用法。这表明用户正在利用AI进行更深入、更具探索性的信息活动。相比之下,尽管内容创作的整体使用率有所上升,但主要增长点集中在图像生成(从5%增至9%),而视频、音频和代码生成等应用则基本停滞。这或许意味着,对于普通用户而言,图像生成的技术门槛和娱乐价值更具吸引力。
一个值得关注的新兴应用是社交互动。约7%的受访者表示每周使用AI作为朋友或顾问,在18-24岁的年轻人中,这一比例更是高达13%。这预示着AI在满足人类情感与陪伴需求方面可能蕴藏着巨大的市场潜力。
尽管信息获取成为AI的首要应用,但将其专门用于获取新闻的比例仍然很低。报告显示,每周使用AI获取新闻的受访者比例仅从3%增长至6%。这一增长主要由日本和阿根廷的用户驱动,在欧美国家则增长停滞。
在使用AI获取新闻的用户中,最常见的需求是获取最新新闻(54%),其次是请求AI对新闻进行总结、评估或简化以便于理解。有趣的是,不同年龄段的用户在使用模式上表现出差异:年长用户更倾向于直接获取新闻摘要,而年轻用户则更频繁地使用AI来帮助他们理解和导航复杂的新闻内容。例如,48%的18-24岁AI新闻用户曾要求AI让一则新闻报道更容易理解,而在55岁以上的用户中,这一比例仅为27%。
这表明,AI在新闻消费领域的价值尚未被充分发掘。对于新闻机构而言,这既是挑战也是机遇。如何利用AI技术,以更个性化、更易于理解的方式呈现新闻,从而吸引年轻受众,将是一个重要的课题。
在众多AI品牌中,公众的信任度高度集中。ChatGPT获得了29%的受访者信任,领先于Gemini(18%)、Copilot(12%)。然而,即便是最受信任的ChatGPT,其信任度在大多数国家仍低于公众对本国新闻媒体的整体信任度。这反映出公众对作为一个新兴技术类别的生成式AI,仍普遍持有一种审慎和观望的态度。

DeepSeek的案例则更为复杂,深刻揭示了认知度与信任度之间的脱节。报告数据显示,DeepSeek和Meta AI一样,不信任者的比例超过了信任者,在主流品牌中处于较低水平。
随着谷歌等主流搜索引擎大规模部署AI摘要功能(如AI Overviews),AI生成的搜索答案已成为许多用户日常信息获取的一部分。报告显示,54%的受访者表示在过去一周内曾看到过AI生成的搜索答案。这种通过整合到现有高频应用中的方式,极大地提升了AI技术的公众接触面,其每周的触达率甚至超过了主动使用独立AI工具的用户比例。
然而,用户与这些AI答案的互动模式却呈现出复杂性。数据显示,只有三分之一(33%)的用户表示会总是或经常点击AI摘要中提供的来源链接,而28%的用户很少或从不点击。这种行为模式引发了新闻出版商和内容创作者对推荐流量下降的担忧。
从年龄分层看,年轻用户更倾向于点击来源链接,这可能表明他们将AI摘要视为信息检索的起点,而非终点。但总体而言,相当一部分用户满足于AI提供的直接答案,这无疑将对依赖搜索引擎引流的数字内容生态系统构成长期挑战。
在信任度方面,约半数(50%)接触过AI搜索答案的用户表示信任这些答案。用户给出的信任理由主要集中在其快速和便捷的特点,以及AI能够聚合大量信息的能力。这表明,对于许多日常、非关键性的信息查询,用户愿意为了效率而接受AI提供的答案。

然而,这种信任是高度有条件的。报告指出,在涉及健康、政治等高风险领域时,许多用户表现出明显的审慎。他们倾向于将AI的答案视为第一遍筛选,并会通过查证传统的、非AI生成的信息来源来加以核实。一位受访者表示:在阅读AI的回答后,我会回头去核对其他来源的回答。另一位则说:当它提供可以被非AI来源验证的事实性答案时,我才会信任它。
这种普遍存在的验证行为,揭示了公众在使用AI工具时一种成熟且理性的心态。他们并非被动接受,而是在便利性与可靠性之间进行动态权衡。这也为高质量、可信赖的信息源(如专业新闻媒体)提供了新的价值定位:成为用户验证AI信息的权威参照。这种公众自发的事实核查倾向,恰恰点明了当前大模型技术的核心痛点——幻觉与知识陈旧。公众的审慎并非杞人忧天,而是对技术现状的真实反映。如何从根本上解决这一问题,已成为产业界和学术界共同的焦点。在这一领域,资深AI技术专家王文广先生的灯塔书《知识增强大模型》提供了系统性的解决方案。
王文广作为浦东明珠计划菁英人才,长期致力于将人工智能核心技术与产业应用相结合。他在书中开篇即精准剖析了大模型的固有缺陷,并指出知识增强是克服这些缺陷的关键路径。该书第四章重点阐述的检索增强生成(RAG)技术,正是当前主流的、旨在通过引入外部知识库来提升回答准确性和可信度的核心方法。对于希望深入理解并构建更可靠AI应用的产品经理和开发者而言,这本书无疑提供了从理论到实践的权威指南,直接回应了公众对于AI可信度的深切关切。
公众普遍认为,生成式AI已经广泛应用于社会各个领域。平均而言,41%的受访者认为AI在不同行业中被总是或经常使用。其中,科技和媒体行业被认为是AI应用最深入的领域,认为搜索引擎公司(67%)、社交媒体公司(68%)和新闻媒体(51%)频繁使用AI的比例远高于其他行业。
当被问及AI的应用将如何影响他们与各部门互动的体验时,公众的期望呈现出显著的差异化。总体来看,乐观者(29%)多于悲观者(22%)。对于医疗、科研和搜索引擎等领域,公众普遍抱有积极期望,认为AI将改善服务体验。
然而,对于另外一些领域,公众的看法则截然相反。新闻媒体、政府,特别是政治人物和政党,是仅有的三个悲观者数量超过乐观者的领域。这表明,公众对于AI在公共事务和政治领域的应用抱有深切的疑虑,担心其可能被用于传播不实信息、进行舆论操纵或加剧社会分化。这种担忧并非空穴来风,它反映了公众对当前信息环境和政治生态的普遍焦虑。
一个有趣的现象是,公众对AI给个人生活带来的影响和给整个社会带来的影响,其期望存在明显分歧。
在个人层面,四个国家的乐观者多于悲观者,人们倾向于相信AI能让自己的生活变得更美好。这可能源于他们已经从AI工具中体验到的便利,例如提高工作效率、辅助学习或提供娱乐。
然而,在社会层面,情况发生了逆转。在包括美国在内的三个国家中,悲观者数量显著超过乐观者。人们担心AI可能带来的大规模失业、加剧不平等、侵犯隐私以及对民主制度的冲击等宏观问题。值得注意的是,与2024年相比,美国公众对AI社会影响的看法明显变得更加负面。
这种个人乐观与社会悲观并存的矛盾心态,揭示了公众对AI影响的复杂理解。他们既看到了技术的赋能潜力,也清醒地认识到其可能带来的系统性风险。此外,报告还发现,女性受访者在个人和社会两个层面上,对AI的期望都显著低于男性,这可能与AI技术发展过程中存在的性别偏见和算法歧视等问题有关。
这种个人与社会、乐观与悲观的复杂交织,正是当前AI时代最值得深入探讨的议题。如何平衡技术发展与社会伦理,如何让AI为工作增效、为生活添彩,而不是加剧社会风险?这些问题没有简单的答案。推荐加入最具价值的【走向未来】知识星球(https://t.zsxq.com/xpWzq)来探讨生成式人工智能、大模型、AIGC、AI芯片和机器人等的前沿产品、技术和应用实践,共同探寻通往AGI的未来之路。
公众对AI在新闻生产中的应用持有一种鲜明且持续的审慎态度。报告揭示了一个清晰的舒适度差距(comfort gap):只有12%的受访者对完全由AI制作的新闻感到舒适,而对完全由人类记者制作的新闻,这一比例高达62%。
人的介入程度,是决定公众接受度的关键变量。当AI新闻生产中有人类监督时,舒适度上升至21%;当人类主导,AI辅助时,舒适度则大幅提升至43%。这表明,公众并非完全拒绝AI技术,但他们强烈要求人类记者在新闻生产流程中保持最终的编辑权和责任。人类的判断、伦理考量和事实核查能力,被视为新闻可信度的基石。
这种舒适度差距在所有受访国家和不同年龄段的群体中普遍存在,并且在过去一年中有轻微扩大的趋势。这向新闻行业传递了一个明确的信号:在拥抱AI技术提升效率的同时,必须坚持以人为本的原则,确保人类智慧和价值观在新闻生产中的核心地位。
公众对AI在不同新闻工作任务中的接受度也存在显著差异,总体呈现出后台优于前台的偏好模式。
对于拼写和语法纠错(55%感到舒适)、内容翻译(53%)等辅助性的后台编辑任务,公众的接受度较高。他们认可AI在这些机械性、重复性工作中的效率优势。
然而,当AI的应用场景转向面向受众的前台时,公众的疑虑便急剧增加。例如,对于使用AI为不同受众重写稿件(30%)、在缺少真实照片时生成一张逼真的图片(26%),以及使用虚拟主播或虚拟作者(19%),公众的舒适度都非常低。这反映了公众对新闻真实性、透明度和人情味的珍视。他们担心,过度依赖AI会模糊事实与虚构的界限,并使新闻失去其应有的人文关怀和情感温度。
有趣的是,公众对自己偏好的感知与他们认为新闻业实际使用AI的感知大体一致。他们认为记者最常将AI用于他们最能接受的任务(如语法纠错),而很少用于他们最不接受的任务(如虚拟主播)。
公众对AI将如何影响新闻质量,抱有一种复杂且略带悲观的预期。
一方面,他们承认AI可能带来的效率优势。多数人认为,AI将使新闻生产的成本更低(净得分+39),发布速度更快(+22)。
但另一方面,他们对AI可能损害新闻的核心价值感到担忧。更多人认为,AI制作的新闻将变得更不透明(-8)和更不可信(-19)。这意味着,在公众看来,AI带来的效率提升,可能需要以牺牲新闻的公信力为代价。他们担心,AI可能会让新闻业陷入一种更便宜、更快,但更差的困境。
这种预期在不同国家有所差异。日本和阿根廷的受访者对AI的正面影响更为乐观,而英国的受访者则表现出更强的悲观情绪。但总体趋势是一致的:公众认为AI主要惠及的是新闻出版商的商业利益,而非作为受众的他们。
尽管新闻机构普遍强调人在回路(human in the loop)的重要性,但公众对此信心有限。只有33%的受访者认为,记者在发布前会总是或经常检查AI生成的内容。这种不信任感与对新闻媒体的整体信任度密切相关:在高度信任新闻的群体中,57%的人相信存在常规检查,而在高度不信任新闻的群体中,这一比例仅为19%。
这再次凸显了信任的重要性。对于新闻机构而言,仅仅制定内部的AI使用准则是不够的,如何向公众有效沟通这些准则,并建立起对其负责任使用AI的信任,是更为艰巨的任务。
在信息披露方面,大多数公众(60%)表示尚未在新闻网站或应用上经常看到面向受众的AI功能,如AI摘要或AI聊天机器人。同时,尽管77%的受访者每天都消费新闻,但只有19%的人表示每天都能看到AI使用的相关标签或声明。这表明,AI在新闻业的应用与其在公众视野中的可见度之间存在脱节。
尽管如此,大多数人(约85%)并不认为新闻机构在普遍地、不加声明地使用AI。这为新闻机构通过清晰、一致的标签和政策沟通,赢得公众信任留下了空间和机会。
路透新闻研究院的这份报告,为我们理解生成式AI时代的公众心态提供了宝贵的数据和洞察。它描绘了一个充满矛盾与张力的图景:公众一方面以前所未有的速度拥抱这项新技术带来的便利,另一方面又对其潜在的社会风险,特别是对新闻业核心价值的冲击,保持着高度的警惕。
对于人工智能产业而言,这份报告提醒我们,技术的发展不能仅仅追求效率和性能的提升,建立和维系公众信任是其获得社会合法性的根本前提。无论是独立的AI应用,还是嵌入式的AI功能,都需要在设计中充分考虑透明度、可解释性和伦理责任。
对于新闻业而言,这既是一个充满挑战的时代,也是一个充满机遇的时代。挑战在于,AI正在重塑信息生产与分发的方式,传统的商业模式和权威地位受到冲击。公众的审慎态度和舒适度差距为新闻机构设置了明确的红线:任何以牺牲真实性、透明度和人类判断为代价的AI应用,都将损害其最宝贵的资产——公信力。
然而,挑战中也孕育着机遇。公众对AI信息的不完全信任,以及他们在高风险领域的验证行为,为专业、严谨、可信的新闻内容创造了新的需求。在一个算法生成内容泛滥的时代,经过人类记者深入调查、多方核实、精心撰写的原创报道,其价值将更加凸显。公众期待新闻机构在负责任地使用AI方面表现出差异,这也为那些坚持高标准、公开透明的媒体品牌提供了脱颖而出的机会。

显然,无论是行业从业者还是普通公众,我们都身处一个需要持续学习和思辨的时代。如果你也对这些议题充满好奇,渴望掌握AI时代的航海图,那么应当即刻加入最有价值的知识星球【走向未来】【https://t.zsxq.com/xpWzq】,共同探索生成式AI、大语言模型、AIGC、智能体和AI芯片的无限可能——从技术原理到产品落地,从应用实践到未来趋势。在【走向未来】知识星球,你可以轻松学会调用各类大模型与智能体,了解最新的具身智能和机器人产品,解锁高效与创意并存的新方式,一步步走近AGI的精彩未来。即刻启程,一起走向未来,不负热爱!
那么,新闻媒体应如何利用技术手段,构建真正值得信赖的AI系统,从而跨越公众的信任鸿沟呢?这不仅仅是一个媒体伦理问题,更是一个复杂的技术工程问题。在这方面,王文广先生的《知识增强大模型》再次提供了极具价值的实践路径。书中第八章图模互补应用范式和第九章知识图谱增强生成与GraphRAG,深入探讨了如何利用知识图谱这一结构化知识库,来增强大模型生成内容的可解释性、可追溯性和准确性。对于新闻业而言,这意味着每一条由AI辅助生成的信息,其来源都可以被追溯,其推理过程都可以被审视。这正是解决公众对于透明度和可信度担忧的技术基石。正如王文广在书中强调的,知识图谱对大模型的增强能够有效减少大模型的幻觉,并提升大模型生成内容的可解释性。对于致力于在AI时代重塑公信力的新闻机构来说,书中提出的技术框架和应用范式,无疑是构建下一代负责任AI新闻产品的关键参考。
最终,新闻业的未来,不在于是否使用AI,而在于如何使用AI。技术本身是中立的,关键在于驾驭技术的人的智慧、勇气和责任感。新闻业需要做的,不是抗拒浪潮,而是在浪潮中坚守航向,利用AI技术更好地履行其作为社会瞭望者、事实捍卫者和公共对话促进者的核心使命,从而在这个加速变化的时代,重塑并证明自身的独特价值。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。