鞭牛士报道,3月7日消息,据外电报道,微软工程师肖恩·琼斯周三向联邦贸易委员会(FTC)提交了一封信,声称其人工智能设计工具 Copilot 不安全。
琼斯在接受 CNBC 采访时表示,他能够使用 Copilot 生成青少年玩突击步枪的图像。他还表示,该工具会主动生成女性暴力、色情图像,以及可能违反版权法的图像。
琼斯说,那是因为它使用了 DALL-E 3。琼斯声称 OpenAI 的图像生成器 DALL-E-3 存在一个漏洞,使他能够绕过旨在阻止此类内容的安全措施。
琼斯在给 FTC 的信中表示,DALL-E-3 存在系统性问题。
「DALL-E 3 倾向于无意中包含对女性进行性物化的图像,即使用户提供的提示完全是善意的。」琼斯写道。
他指出OpenAI 本身已记录了该问题。该初创公司在 2023 年 10 月的一份报告中表示,DALL-E 3 有时会主动生成暗示性或边缘色情内容。
OpenAI 还指出,语言视觉人工智能模型可以表现出女孩和妇女的性客体化倾向。
Jones 表示,微软并未解决 Copilot Designer 使用的版本中 DALL-E 3 的已知问题。
微软和 OpenAI 没有立即回应置评请求,但微软告诉 CNBC,它致力于根据我们公司的政策解决员工提出的任何和所有问题,并感谢那些希望进一步增强其产品安全性的员工。
微软的 Copilot 聊天机器人最近也受到了攻击。当被问到是否应该「结束这一切」时,聊天机器人告诉一位使用该工具的Meta数据科学家「也许你没有什么可以活下去的」。
微软、谷歌和 OpenAI 的聊天机器人都因犯下引人注目的错误而受到审查,从引用虚假诉讼到创建历史上不准确的不同种族纳粹形象。
琼斯表示,在他提出内部投诉后,微软没有采取行动解决该问题,该公司还要求他删除概述该问题的社交媒体帖子。他以谷歌为例说明了如何处理该问题,并指出,当该公司面临类似投诉时,暂停了通过 Google Gemini 生成图像中的人物。
该工程师要求 FTC 调查微软的管理决策、事件报告流程,以及该公司是否干扰了他向 OpenAI 通报该问题的尝试。
联邦贸易委员会向 Quartz 证实已收到琼斯的信函,但拒绝发表评论。
领取专属 10元无门槛券
私享最新 技术干货