作者 | DavidZh
出品 | AI科技大本营(公众号ID:rgznai100)
风口浪尖上的 Facebook 在刚刚结束的 F8 开发者大会上宣布,将组建一个专门的 AI 伦理团队跟公司里各项产品和服务合作,以此来保证 AI 的公正性。
Facebook 的一位科学家向 CNBC 确认了这一消息,但拒绝透露这个团队的人数规模。
从产品来看,Facebook 决定先从 Messenger 聊天应用中的翻译功能入手。在这个 AI 伦理团队的协助和监督之下,当 Messenger 用户使用这个功能时需要确保根据用户发送的文本或语音翻译过来的内容准确而公正。
根据最新数据,Facebook Messenger 的月度活跃用户数已经超过 20 亿,拥有全世界多样性最高的用户群体。他们的语言、文字和文化传统千差万别,由 AI 驱动的翻译等功能有必要保证其中立性。
这只是今年 3 月剑桥分析公司(Cambridge Analytica)泄露 8700 万用户隐私数据之后,Facebook 做出一系列调整中的一部分。
去年,Facebook 内部研发的一个名叫 Fairness Flow 的算法工作流就已经整合到 FBLearner Flow 平台中了,主要作用是更便捷地训练 AI。
实际上,关于 AI 的伦理问题,至少从去年开始就有大科技公司关注并采取行动了。
早在 2011 年,微软、IBM 和多伦多大学就已经意识到 AI 领域非常需要克服偏见之后的公正性(fairness)。从技术层面解释,这是因为 AI 中大多数算法模型的工作方式都是黑盒子,研究人员通常只知道输入内容和输出的结果与质量,但无法解释清楚 AI 算法内部的工作机制。如果 AI 研究者利用带有偏见的数据集或者在调整参数时加入自己的偏见,都有可能导致 AI 输出结果的不公正。
为了解决这个问题,2014 年微软研究院成立了一个名叫 FATE(Fairness Accountability Transparency and Ethics in AI)的项目,旨在增加 AI 的公正、可靠和透明度。这个项目团队每年会组织一次名为 FAT in ML 的专题讨论会,邀请 AI 领域内多位资深技术专家分享新的研究进展,到今年已经办到第五届。
而 Google 花重金收购来的英国公司 DeepMind 也在 2017 年成立了 DeepMind Ethics & Society 项目,并提出了两个目标:
帮助技术人员践行道德
帮助社会预测和指导 AI 的影响,让所有人受益
目前,这个项目组共有四名成员,其中 Julia Angwin 已经在犯罪学领域对算法的种族偏见(https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing)做了十分深入的研究。
尽管如此,Google 内部科学家和研究人员对 AI 的看法仍然观点不一。一位名叫 Ali Rahimi 的 Google 工程师在今年 4 月底的一次会议上表示,AI 算法通过不断试错来提高自己,有点儿像“炼金术”。
Ali Rahimi 说:“AI 研究领域有极其痛苦的部分,我们中的很多人都觉得好像在操作一项外星来的技术。”
从应用层面来看,一套 AI 算法或模型正式形成之后,就只具备一种用途。比如,基于计算机视觉开发的桃子分拣算法,就只能分拣桃子,而不是黄瓜。
今日头条用于信息流推荐的算法模型,不能用在安防摄像头上做视频监控。
本质上,这些例子都反映出了 AI 算法不可复用、迁移难度极高的特点。
对于科技公司而言,AI 不仅不是万能灵药,还是一项很有风险的技术。
在 AI 的“黑盒子”可以被清楚理解和完整解释之前,一个值得参考的建议是,先确立 AI 的基础法则。就好比上世纪 50 年代,阿西莫夫提出的机器人三定律一样,确保 AI 要为人类整体带来福祉,而不是增强人类族群本身的偏见、歧视和黑暗面。
今年 4 月,英国上议院(House of Lords)发布的一份报告(https://publications.parliament.uk/pa/ld201719/ldselect/ldai/100/100.pdf),确立了五项有关 AI 基本原则,或许能对科技公司和各个垂直行业有所启发:
要为人类的共同利益开发人工智能。
人工智能应该遵循可理解性和公平性的原则。
人工智能不得削弱或破坏个人、家庭或社区的数据权利和隐私。
所有公民都有权接受教育,使他们能够在精神上、情感上、经济上与人工智能一同发展。
决不能将伤害、摧毁或欺骗人类的自动化能力赋予人工智能。
AI科技大本营
公众号ID:rgznai100
领取专属 10元无门槛券
私享最新 技术干货