人工智能
人工智能(AI)现在是神通广大,无所不能,比如帮助人类鉴黄,但尴尬的是,伦敦警方的AI却错将沙漠图片误认为人类裸体。
据外媒Gizmodo报道,伦敦警察厅正用AI软件鉴别成人图片,该软件使用了机器学习,计划在未来2-3年内协助侦破虐童案件。
然而,该警察厅数字部门主管马克.斯托克斯表示,“AI软件尚无法分辨沙漠和裸体,很多人都用沙漠作为屏保,也许AI认为沙漠的颜色很像人类肤色吧。”
当然,也不能怪伦敦警察厅不给力,即便是硅谷巨头研发的AI也会脑袋秀逗,比如微软的聊天机器人Tay,曾在社交网络喷脏话,发表种族歧视言论。
言归正传,AI在鉴黄方面仍然任重而道远,目前这点功力别说帮助破案,只要不好心办坏事就行。
举个例子,Facebook上有一张照片曾被管理员撤下,原因是AI认为涉嫌儿童色情,结果该照片曾荣获普利策大奖,内容是越南战争中奔跑的裸体女孩。
这说明什么呢?即便AI识别到图片中有裸体儿童,但它无法理解图片发生的背景或情景,也就无法理解正是因为战争的残酷,才出现了裸体儿童。
既然这样,又谈何色情呢?
不过,伦敦警方的AI这么偏好沙漠,看来口味很特别。
领取专属 10元无门槛券
私享最新 技术干货