据南方 + 9 月 15 日报道,深信服安全业务副总裁訾然表示,大模型的安全分为两方面。一方面是大模型自身,由于幻觉问题、训练数据安全问题、推理数据泄密等问题,导致的安全风险。另一方面是将大模型用于网络安全的攻击或防守中。由于大模型具有更强的未知威胁检测能力,同时大模型更强的逻辑推理、上下文学习能力,能让大模型充当一个虚拟的安全专家,对复杂时延进行研判处置,协助安全人员应对更加复杂的挑战。
訾然表示,大模型“学坏”,很大程度是由于大模型的训练数据中存在不合理、不正常的数据,导致大模型对于一些问题和事物,存在不符合人类常识、道德观念的看法。目前来看,能反制大模型的,只有大模型,也就是将大模型应用到网络安全的防守中,来检测由攻击大模型生成的病毒、钓鱼邮件、攻击行为。
领取专属 10元无门槛券
私享最新 技术干货