首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >AI“说谎”也能钓鱼?专家提醒:大模型幻觉正成网络攻击新突破口

AI“说谎”也能钓鱼?专家提醒:大模型幻觉正成网络攻击新突破口

原创
作者头像
草竹道人
发布2025-10-17 11:03:39
发布2025-10-17 11:03:39
470
举报

当你让AI帮你写一封工作邮件、生成一份技术方案,甚至提供安全建议时,你有没有想过,它可能正在“编故事”?更危险的是,这些“编出来”的内容,可能正悄悄把你引向网络钓鱼的陷阱。

近日,网络安全专家发出警示:随着大语言模型(LLM)在企业办公场景中的深度应用,其固有的“幻觉”问题——即模型生成看似合理但实为虚假或错误信息的现象,正被黑客盯上,成为新型钓鱼攻击的“跳板”。

“过去,钓鱼邮件拼的是‘演技’,比如冒充银行、伪造领导口吻。现在,攻击者可以利用AI的‘幻觉’能力,批量生成逻辑通顺、语法正确、甚至引用‘权威资料’的虚假内容,迷惑性大大增强。”公共互联网反网络钓鱼工作组技术专家芦笛在接受采访时表示。

什么是AI“幻觉”?简单来说,就是大模型在缺乏准确信息的情况下,基于训练数据的模式“脑补”出看似合理但实际错误的内容。比如,它可能虚构一篇根本不存在的新闻报道,或者生成一个看似正规实则危险的网站链接。这种能力本是技术局限,却被黑客巧妙“反向利用”。

芦笛解释:“攻击者不再需要手动编写高仿邮件,他们可以通过精心设计的提示词(prompt),诱导AI生成带有钓鱼链接的‘内部通知’、‘系统升级提醒’,甚至是‘安全漏洞修复指南’。这些内容读起来非常专业,普通员工很难一眼识破。”

更令人担忧的是,一些企业已将AI集成到办公流程中,用于自动回复邮件、生成报告或提供决策支持。一旦这些系统被恶意输入误导,生成的内容可能直接成为传播钓鱼信息的“合法渠道”。

“我们已经观察到类似案例。”芦笛透露,“有企业员工使用AI工具查询某个软件的下载地址,结果AI‘幻觉’出一个虚假官网链接,员工点击后导致终端感染恶意软件。”

面对这一新型威胁,专家建议企业必须建立“AI安全防线”。首先,切勿完全依赖AI生成内容,尤其是涉及链接、文件下载或敏感操作的场景,必须经过人工复核。

其次,加强权限与内容审核机制。企业应限制AI工具访问核心系统和敏感数据的权限,并部署专门的内容过滤系统,对AI生成的文本进行风险扫描,识别潜在的钓鱼关键词或可疑链接。

“AI不是‘免检产品’,它的输出同样需要被监督。”芦笛强调,“企业应将AI风险纳入整体网络安全培训体系,让员工了解‘幻觉’的存在,培养‘质疑AI’的意识,而不是盲目信任机器输出。”

此外,技术层面也可通过“提示词工程防御”和“输出验证机制”降低风险。例如,要求AI在生成信息时标注来源,或对接可信数据库进行交叉验证。

随着AI深度融入工作场景,网络安全的边界正在重塑。专家提醒,防范AI钓鱼,不仅是技术问题,更是管理与意识的双重挑战。在享受AI效率红利的同时,保持一份清醒的警惕,或许才是数字时代最必要的“安全补丁”。

编辑:芦笛(公共互联网反网络钓鱼工作组)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档