参加 Meet 35 大会,请点击↑
科技中立,但人制造出来的 AI 却可能带有偏见或歧视。自去年底以来 AI 偏见(AI Bias)就成为学术界及人工智能行业疾呼需要解决的问题,软件巨擘 IBM 在美国时间 19 日宣布将IBM Research 研发的偏见检测工具—AI Fairness 360 工具包开源,包括超过 30 个公平性指标(fairness metrics),和 9 个偏差缓解算法,研究人员和开发者可将工具整合至自己的机器学习模型里,检测并减少可能产生的偏见和歧视。
目前谈论较多的 AI 偏见情况像是性别歧视、种族歧视,例如面部侦测算法在识别白人时的准确率比识别黑人高许多,男性跟女性类别也存在类似问题,让软件识别犯罪嫌犯人选、企业挑选求职者时,也曾引发歧视问题。
另外,AI 偏见也超出了性别和种族,越来越多 AI 被应用在银行信用评等、保险费用计算,而且还影响决策者做出批准或拒绝贷款、甚至是要不要赔偿保险的决定,但这些都可能因为数据集不完善或缺乏多元性,让 AI 做出不合宜的判断结果,对社会造成不小的影响。
因此 IBM 率先选择了 3 个领域的应用,作为 AI Fairness 360 工具包的示范教学,这三个领域分别是信用评等、医疗保健支出评分、面部识别中的性别偏见。以及 9 种算法,包括预处理优化、Reweighing、对抗性偏见等。
图|IBM 提出开源 9 个 AI 偏见防御算法(图片来源:IBM)
一直以来 AI 的黑盒子问题不仅困扰着研究人员及企业,同时也限制了 AI 迈向大规模部署,IBM Watson Data 及 AI 副总裁 Ritika Gunnar 就表示,人工智能模型缺乏信任和透明度正在阻碍企业的部署,这是一个真正的问题。为了解决相关难题,行业有几个趋势,一是发展非监督式学习(Unsupervised Learning),像是 Facebook AI 首席科学 Yann LeCun、卡内基梅隆大学(CMU)教授 Zachary Lipton 等人都积极推动非监督式学习。另一个方向就是透过工具来提高AI 可解释性及透明度。
除了 IBM,谷歌在上周也开源了一项名为“What-If Tool”的探测工具。谷歌在官方博客上指出,建构有效的机器学习系统,光是训练模型是不够的,应更好地理解模型,像是数据点的变化将如何影响模型的预测?它对不同的群体有不同的表现,例如被边缘化的人群?数据集的多样性又是如何?What-If Tool 为开源 TensorBoard Web 应用程序的一项新功能,让用户在不需要编写代码的情况下分析机器学习模型。
另外,Facebook 在 5 月的年度开发者大会上宣布了检测偏见的工具—Fairness Flow,如果一个算法根据用户的种族、性别或年龄做出不公平的判断,它会自动发出警告。此外,根据《麻省理工科技评论》先前的报导指出,微软也正在研究侦测偏见的自动化工具,终极目标是要做到自动检测机器学习中的不公平性,帮助使用人工智能的企业不会无意中歧视某些人。
世界经济论坛(World Economic Forum)人工智能和机器学习负责人 Kay Firth-Butterfield 日前就提出警告:“现在的焦点是关于人工智能的道德问题,因为一些算法存在‘明显的问题’”,解决问题的方法是让西方的科技产业“更加多样化”。
-End-
领取专属 10元无门槛券
私享最新 技术干货