微软用人工智能取代人工编辑的的改革,面临着首次重大尴尬和失误。
5月底,微软决定解雇MSN新闻的人工编辑,以人工智能取而代之。
本周早些时候,出现了一则关于Little Mix成员Jade Thirlwall遭遇种族歧视的新闻报道。这个故事看起来平淡无极,但要在知道,微软的人工智能混淆了两名混血儿乐队成员的名字和照片,这个错误很快被瑟尔沃尔指出来。
在Instagram的一篇文章中,瑟尔沃尔写道:“如果你想复制粘贴来自其他准确媒体的文章,你可能需要确保你使用的图片是正确的。”
她补充道:“这件事一直发生在我和@leighannepinnock身上,而且已经成为一个流传的笑话......你不能从四个成员中区分出两个有色人种女性,这让我很生气……做得更好!”
据报道,微软的人工编辑被告知,人工智能随后可能会发布有关其种族主义错误的报道,并手动删除这些报道。
MSN的工作人员也被告知要等待《卫报》的这篇文章的发表,并试图手动从网站上删除文章,因为微软的机器人编辑在接手他们的工作后,很有可能会认为这篇文章对MSN的读者感兴趣。
——Jim Waterson (@jimwaterson) 2020年6月9日
微软的新闻应用程序代替人工的梦想最终被这一事件的报道彻底打碎,很明显,剩下的人工编辑器无法足够快地对抗自动编辑器。
——Jim Waterson (@jimwaterson) 2020年6月9日
根据沃特森的说法,最近被解雇的MSN员工已被告知停止向他报告人工智能在做什么。
这已经不是微软的人工智能解决方案第一次因为种族歧视而受到攻击了。
2016年,微软开发的一个臭名昭著的推特聊天机器人Tay在Twitter上大吐种族歧视和歧视女性的刻薄言论。很明显,这个聊天机器人并不是设计成这样一个令人讨厌的角色,但出于某种原因,微软认为让互联网居民来训练它会是个好主意。
在我们生活的这个日益严峻的世界里,最紧迫的问题之一是大规模监控和面部识别。尽管IBM本周宣布不想再使用这项技术,但微软仍然是关键的参与者。
算法正义联盟去年的一项实验发现,基于性别和肤色的人脸识别算法的表现存在严重差异。
微软的算法实际上是所有测试中表现最好的,在检测浅色皮肤的男性时准确率达到100%。然而,当应用于肤色较深的女性时,该算法的准确率只有79.2%。
如果该版本的微软面部识别系统被用于监视,几乎每10个肤色较深的女性中就有2个可能会被错误标记。在繁忙地区,这可能意味着每天有成百上千的人面临自动配对。
虽然在理想情况下,算法不会有任何偏差或问题,但所有这些事件都准确地说明了为什么许多人几乎总是要参与最终决策。这样,当事情出错时,至少有一个具体的人负责,而不是仅仅责怪一个人工智能错误。
领取专属 10元无门槛券
私享最新 技术干货