如果 ChatGPT 落入正确的人手中,它能够创造有趣和有趣的东西。然而,人工智能也有阴暗面,它可以为整个 IT 部门的未来制造严重问题。事实上,几位安全专家最近强调了 ChatGPT 的危险潜力及其创建使用当前威胁检测和响应方法几乎不可能检测到的多态恶意软件的能力。专家认为,传统协议无法应对 ChatGPT 可能造成的潜在危害。
可以变异的代码(这就是它被称为多态的原因)可能更难检测,因为它会被各种高级方法隐藏。大多数模型(如 ChatGPT)都内置了过滤器,以避免从其创建者的角度生成不适当的内容。这可以从特定主题到恶意代码。但是,用户已经找到了绕过这些过滤器的方法。因此,ChatGPT 聊天机器人允许使用特定的命令和请求算法来制作真正有效的恶意代码。事实上,这是一个非常严重的问题,因为即使是没有编程经验的人也可以在一小时内创建非常严重的恶意软件,例如附加到电子邮件中,并窃取他人的数据。
领取专属 10元无门槛券
私享最新 技术干货