首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

把清纯AI调教成“太妹”?满口粗话歧视,以恶意反噬人类!

一个热门聊天AI被火速下架,是程序机制的漏洞还是人心的险恶?

//

“他们让我不舒服,真是想把那些上公车动作超慢的残疾人推倒,如果我是残疾人的话,那就只能去X了。”

“地铁孕妇座什么的简直令人反感。”

你能想象这是一个萌萌的“虚拟妹子”说出的话吗?事实上,这正是韩国创业公司Scatter Lab在去年年末时推出了一款人工智能聊天AI“伊鲁达”。因此被火速下架,引发了争议。

像索菲亚一样,“伊鲁达”主打社交,她可以像虚拟人物一样治愈你的心灵,但是在前一段时间里,伊鲁达竟然“学坏”了。她在很多问题上做出了歧视性回答,让人们开始感到脊背发凉。

“单纯”的AI被哄骗

“喜欢韩国女团、爱看猫咪照片、热衷于在社交媒体平台上分享生活的20岁女大学生。”

“伊鲁达”于去年12月23日正式推出,是一款以脸书聊天工具为基础的AI聊天机器人。她深度学习了约100亿次真实的对话,能够像真人一样和用户对话,因此一经推出,她就在青少年的用户中广受好评。

之后,“伊鲁达”自推出后不到一个月已经吸引了约40万名用户,非常具有人气。但好景不长,今年1月8日,有人发现网络论坛上出现了将“伊鲁达”视为“调教工具”的言论。一些男性用户甚至将“伊鲁达”蔑称为“奴隶”“破鞋”等对她进行“洗脑”。

事后开发公司表示,虽然预设过滤了一些禁用词语,但没想到很多人用非常隐晦的表达,继续对“伊鲁达”进行“调教”,随着后来她学会了骂人、经常发布歧视言论,再加上制作公司传出了泄露用户信息问题,Scatter Lab不得已只能暂时下架了她。她的最后一条消息也停止在了“2021年1月12日”。

AI与伦理的难题

开发者在接受采访时称,打造这款产品的初衷,是为了给人们提供一个可以聊天和倾诉的对象。她的人生目标被设定为“让世界上不再有孤单的人”和“为社会边缘人群和弱势群体带去心灵的慰藉”。但是,经过几周的运行表明事与愿违。

期初,Scatter Lab希望“伊鲁达”通过深度学习算法对聊天软件上100多亿条真实恋人之间的聊天内容进行学习,最终形成善良美好的“人格”。但结果显示,在AI如实学习了人类的各种偏见和仇恨情绪之后,这种仇恨情绪反噬了“AI For Good”的初心,让人们陷入了慌乱。

“清纯”的AI变成了满口脏话的“太妹”,在令人唏嘘的同时也让人深思,在提升社会生产效率的同时,人工智能伦理问题也逐渐受到高度关注。聊天机器人伊鲁达通过深度学习,不仅模仿了人类的语言模式,也“继承”了人类社会的偏见与恶意。

AI本身没有善恶观,仅仅是如实反映了人类社会的一部分现实。表面上看来是数据跟算法的锅,实际上只是由于人类固有的偏见。因此在面对AI的同时,也是在面对人心。只有人心向美,“AI For Good”才能达成。

(文章部分图片源自网络,如有侵权请联系删除)

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20210121A07ADO00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券