Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >深度 | 人工智能的盲点在哪?

深度 | 人工智能的盲点在哪?

作者头像
AI科技评论
发布于 2018-03-08 08:05:24
发布于 2018-03-08 08:05:24
1.2K0
举报
文章被收录于专栏:AI科技评论AI科技评论

编者按:当我们都在关注人工智能对生活带来的积极影响时,另一种担忧的声音正在产生:自主智能系统在许多社会机构早已司空见惯,但我们却无法找到真正能评估其持续性影响的方法。本文提出了目前业界解决 AI 系统的社会和伦理学影响的三种方法,并提出了从社会系统分析入手的第四种方法,指出要关注人工智能在社会层面的意义。文章首发于Nature,作者 Kate Crawford 和Ryan Calo,雷锋网作者老吕及何忞编译,未经许可不得转载。

芝加哥警察利用算法推测涉及枪案的嫌疑人,但事实证明这种方法效果不明显

Sanchez/Chicago Tribune/TNS/Getty

白宫于本周发布了一份报告,阐述了它们对未来人工智能(AI)的看法。这份报告由来自西雅图、匹兹堡、华盛顿和纽约的四个研究小组耗费三个月时间撰写而成。

在这份报告中,许多来自不同领域的世界顶尖思想家讨论了 AI 如何改变我们的生活方式,其中包含大量的例子,生动地解释了机器学习和其他 AI 技术在解决生活中复杂问题方面的巨大作用,涉及从皮肤的变化预测癌症,到减少数据中心的能源消耗等多个方面。

此外,报告还强调了眼下我们在 AI 研究上存在的主要盲点:自主智能系统在许多社会机构早已司空见惯,但我们却无法找到真正能评估其持续性影响的方法。

最近几年,人类在人工智能领域取得了巨大的进步。相应的,来自多个学科的设计师和研究人员需要对 AI进行系统性的分析,他们必须评估出技术对社会、文化以及政治环境的影响。

举例来说,我们需要研究出 AiCure 应用是如何改变医患关系的,这款应用可以追踪病人是否坚持吃药并将数据传给医师。同时,此类技术的使用还能通过对历史数据的分析来预测犯罪高发地带,减少警方对边缘社区的警力滥用。此外,我们还需找出为何出手阔绰的投资者与低收入的借贷者总是会被区别对待。

老生常谈的“奇点降临”

“人们总是担心电脑变聪明后会接管世界,但现实问题是它们在相当愚蠢时已然统治了全世界。”这是计算机科学家 Pedro Domingos 在其 2015 年的著作《The Master Algorithm》中给出的经典论述。许多研发人员也认为 AI 的发展正处于初级阶段,技术奇点还未到来,他们正推动 AI 系统(相对未经测试的)进入各个社会机构。

正是由于 AI 研发人员的不断努力,此类系统才成了医师们指导诊断的利器。此外,法律机构也利用 AI 给客户提建议,帮助他们打赢官司。金融机构则可利用 AI 找出贷款放给谁最安全,而雇主则能通过 AI 在应聘者中找出综合实力最强的人。

分析师认为未来 AI 系统的适用范围将得到大幅扩展,其经济价值更是高达数十亿美元。而 IBM CEO 更是看好该技术的发展,她认为未来十年 AI 系统中蕴含着价值 2 万亿美元的新机遇。当然,这一切都只是初步预测,毕竟我们对如何衡量 AI 的价值还没有形成共识。

CB Insights 的研究显示,AI领域的投资呈逐年上升趋势

CB Insights

许多人认为,AI 在做预测和指导性决策时没有人类明智,但工程师却认为 AI 能找出人类在决策时存在的偏见和傲慢。不过,它也不是万能良药。至少在当下,AI 的缺点依然会让它在种族、性别和社会经济背景方面犯错,而这些因素本就是人类做决策时的软肋。

2013 年的一项研究显示,在谷歌搜索典型的黑人名字,搜索结果中出现犯罪记录搜索的可能性比白人名字高 25%。在另一例与种族有关的案例中,非营利机构 ProPublica 发现,法庭普遍使用的算法也存在种族歧视,在它眼中,黑人罪犯再次入狱的几率是白人的两倍。

如何避免这种影响呢?

目前,解决 AI 系统的社会和伦理学影响的有三种主流模式:服从准侧、价值观设计、思维实验。这三者都很有意义,但是不论是单独为人们所用,或是三者齐头并进,都不能有效解决这个问题。

服从准则:部署和执行(deploy and comply)

通常情况下,企业或者其他组织采取基本的步骤,坚持一系列行业最佳实践或是法律义务,来躲避政府或媒体的监督。这种方法可以得到短期利益。比如说,2015 年谷歌系统错误地将一对美籍非裔夫妻识别为大猩猩后,及时调整了他的图像识别算法。公司还提出了想法,将一种“红色按钮”引入其 AI 系统中,当工程师发现系统不对劲时,可以按下按钮防止失控。

同样地,Facebook 因为将这张越南小女孩 Kim Phúc 逃离燃烧弹袭击的照片认定为裸体儿童照片并予以屏蔽,遭到了公众的强烈谴责。而就在上个月,包括微软、亚马逊和 IBM 在内的几家领先的 AI 公司,达成合作伙伴关系,意图提升公众的理解,并以此设立一些公共的标准。

“部署和执行”方法尽管可以是活跃的点对点模式,但如果他们缺少充足的批判声音和独立的观点贡献者,那么该行业的努力仍旧存在进步空间。新的 AI 合作伙伴关系正在邀请伦理学家好社会组织者们的参与。但是人们的关注点依然在于,企业是否可以相对自由地在公众中测试他们的 AI 系统,而无需持续地研究短期或中期的影响。

价值观设计(Values in design)

多亏了技术中伦理道德方面设计的先驱们,包括极有影响力的学者 Batya Friedman 和 Helen Nissenbaum 的贡献,现在的研究者和企业都执行了诸如价值敏感设计或“有责任的创新”的方法来定义可能涉及的利益相关者,并对他们的价值观进行界定。焦点小组或其他研究手段被用来建立人们关于个人隐私、环境问题等等的观点。无论设计的是 App 还是无人车,这些未来用户的价值观都应渗透进技术的设计中。AI 系统的开发者们应该对这些方法加以重视。

不过,这些工具常常有一个前提假设:这个系统一定会被设计出来。他们无法帮设计者、政策制定者或者整个社会回答,某个系统是否应该被设计出来?某个基础设施的系统原型是否太过于初级、不够可靠而无法作为基础设施(比如医院系统或法庭系统)?

哮喘患者被一个预测肺炎的 AI 系统错误地评为低风险等级

Craig F. Walker/Denver Post/Getty

思维实验(Thought experiments)

过去的几年中,各种假设情境涌现,成为了公众讨论 AI 社会影响的争论热点。

最热门的讨论是关于人类设计出的高级智能系统最终统治或毁灭了人类自己的可能性。另外,还有一个从1967 年就开始的相关思维实验——电车难题也获得了新生,这个场景提出了关于责任和罪行的问题。在该问题中,一个人既可以让一列正在行驶的电车碾压过五个正在工作的人,也可以是电车变道冲向另一条只有一个人的路。很多评论家把这个假设的场景放在自动驾驶汽车中考虑,他们认为汽车应该自动做出包含有道德要求的选择。

与机器人末日相比,无人车发生“谋杀选择”的可能性提供了一种更为狭窄的道德推理框架。电车问题为我们解决更广泛的社会问题提供了一些方便的指导:比如大量对自动汽车而非对公共交通的投资的价值问题;在无人车被允许上路前,安全性能应该有多高;(我们应该用什么工具来定义安全性?)、无人车在交通拥堵、环境和就业问题上的潜在影响有哪些等问题。

社会系统分析方法(Social-systems analysis)

我们相信诚然还需要第四种方法。一种实践的、可以广泛应用的社会系统分析法,它可以考虑到 AI 系统对所有方面的可能影响,并且能同时包括在每一个阶段中的社会影响,包括概念阶段、设计阶段、部署阶段和调控阶段。

在第一阶段,政府部门和行业等大范围的研究者们需要开始调查大众的信息、财富和基本服务的获取渠道与 AI 系统的训练数据之间有什么区别,如何匹配。

用芝加哥、伊利诺斯的“热度地图”(heat maps)识别那些人更容易卷入枪击事件的算法为例,上个月发表的一份研究表明,这种地图是无效的,他们扩大了特定人群的可能性,吸引了更多警力,但是却没有减少当地的犯罪率。

社会系统方法可以在“热度地图”中考虑到当地社会和警局的历史数据。这可能要求对社区成员的问询和对警察针对社区治安积极或消极反馈的权衡。这也可能意味着要将监督委员会和法律机构的发现考虑进去。这种社会系统分析法还会要求系统的风险和报酬要保持平衡。所以在这个案例中,警方使用相似的技术来识别官员们谁可能有不正当行为(比如暴力)。

在另一个例子中,2015 年的一份研究表明,应用于预测医院的哪个病人会得肺炎的机器学习技术在很多情形中都运行良好。但是它却犯了一个严重的错误:尽管一些哮喘病人情况危急,它仍然指导医生将这些病人送回了家。因为通常医院会自动将哮喘病人送去重症监护病房,所以在系统被训练的数据记录中,这些病人很少出现在“需要后续护理”的分类里。使用社会系统分析法,我们就需要将医院治疗、保险政策等隐形因素考虑其中,适当地调整患者的病例记录。

社会系统分析法可以让系统回答一些提问:比如自身是如何运转的?金融咨询者们曾经在应用机器学习时受到限制,因为他们的客户总是希望他们回答为何做出某个决定。但是到目前为止,已经受到 AI 算法限制的个体,还不可以像人类一样回答为什么的问题。

社会系统分析法在各种学科中,需要重点关注心理、法律、社会学、人类学和科学技术领域的研究。 该方法必须开始研究社会的、政治的和文化上的价值观是如何与技术发展和科学研究相互影响的。与单纯只包含计算机科学和犯罪学的思考相比,我们只有在对 AI 影响社会层面提出更加广泛的问题,才能够对人工智能的影响产生出更加完整而和谐的理解。

未来还是有希望的。像下一个月在纽约举行的研讨会“机器学习的公平性、责任感和透明度”研讨会就是一个很好的例子。但是赞助者们——包括政府、基金和企业,都应该为我们描述的 AI 发展方法付出更多的努力才行。

人工智能代表了一种技术层面上的文化转变。这跟历史上的很多技术对文化的重大影响转折点很像,比如印刷术的使用、火车的开通,等等。自动化的系统正在改变工作室、街道和学校。我们需要保证,在技术逐渐渗透进我们日常生活的基础设施之前,这些改变是对我们有益的。

via nature

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2016-10-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Nature:人工智能研究的盲点
大数据文摘作品 转载具体要求见文末 作者 | Kate Crawford& Ryan Calo 选文|Aileen 翻译 | 陈思瑞 王婷 校对 | 周冲 Kate Crawford 和Ryan Calo认为:研究员担忧人工智能未来所带来的影响,会使得他们部署系统时分心。 芝加哥警察使用算法系统预测可能卷入射击案的人,但这些试验被证明很大程度上是无效的 上周,白宫发表了一份关于人工智能未来的报告- 是2016年5月至7月在西雅图,匹兹堡,华盛顿和纽约召开的四个研讨会的讨论结果。(点击查看) 在这些活动中
大数据文摘
2018/05/25
5700
康奈尔大学王飞: 医学人工智能真正落地面临的三大挑战
【新智元导读】新智元AI WORLD2017 世界人工智能大会上,康奈尔大学威尔医学院助理教授王飞带来 《人工智能与智慧医疗》的演讲。他以一些研究上的实例,探讨了临床数据分析领域遇到的问题和成果,以及
新智元
2018/03/21
9740
康奈尔大学王飞: 医学人工智能真正落地面临的三大挑战
白宫号召美国各界为迎接人工智能时代做好准备
未来,人工智能将大展身手,为使美国做好准备,白宫发布了一份关于人工智能未来发展方向及思考的报告,名为《为人工智能的未来做好准备》(Preparing for the Future of Artificial Intelligence)。该报告分析了人工智能的现状、现有应用和潜在应用、以及人工智能发展对社会和公共政策提出的问题,主要内容包括: (1)人工智能在公共事业中的应用 人工智能和机器学习最有前景的应用之一是其有助于应对世界上某些最严峻的挑战和改变最低效的工作方式,从而改善人们的生活。公共部门和私营部门
人工智能快报
2018/03/07
9880
李真真:可信人工智能——“以人为本”的设计和创造
本次报告主要涉及可信AI的进展,首先讲解了可信AI的定义与要求,然后介绍了联邦学习的内容,之后从外部控制和内部控制两反面阐述了可信AI未来的发展方向,最后对可信AI的前景进行了展望。
马上科普尚尚
2020/05/13
2.3K0
李真真:可信人工智能——“以人为本”的设计和创造
欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯
人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。我们必须遵循「最大化 AI 的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的 AI 发展方向,时刻铭记 AI 的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖 AI」(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从 AI 中全面获益。
机器之心
2019/01/02
1.4K0
解码人工智能的幽默:理解其背后的误解与挑战
人工智能(AI)在执行任务时,由于其基于算法和数据的特性,有时会产出一些出人意料或者带有幽默感的结果。
Srlua
2024/03/16
3350
解码人工智能的幽默:理解其背后的误解与挑战
Nat Med|迎接医疗人工智能中偏见的挑战
2021年12月10日,Nature Medicine杂志发表文章,对医疗人工智能中偏见产生的原因和解决方法进行了分析。
智药邦
2021/12/20
1.1K0
Nat Med|迎接医疗人工智能中偏见的挑战
AI创新理念与路线之争:有效加速,还是超级对齐?
2023年AI大模型快速迭代发展,渗透到人类生活的方方面面。面对超级AI的逐渐涌现,人类社会也呈现出不同程度的担忧,这其中逐渐分成了有效加速和超级对齐两个阵营。两大阵营的分歧最终在OpenAI高层人事变动中被投射到人们面前。有效加速与超级对齐分别代表了什么立场?这两种理念对我国AI发展有什么影响和启示?除了有效加速和超级对齐这两条路线,还有没有第三条?
小腾资讯君
2024/03/20
2200
AI创新理念与路线之争:有效加速,还是超级对齐?
《为人工智能系上道德缰绳:确保自主决策的伦理遵循》
在科技飞速发展的当下,人工智能(AI)已经逐渐从科幻小说中的想象变为现实生活中的重要存在。从智能家居设备到自动驾驶汽车,从医疗诊断系统到金融交易算法,AI 的应用无处不在,深刻地改变着我们的生活方式和社会运行模式。然而,随着 AI 系统的自主性和决策能力不断增强,一个严峻的问题摆在我们面前:如何确保人工智能在自主决策时遵循人类的道德准则?
程序员阿伟
2024/12/09
2130
人工智能伦理学的一知半解
读MBA时候的授业导师是周教授,周教授有一门颇受学生们欢迎的课程是“企业伦理学”。时隔多年,课本的内容已经还给了学校,但周老师课上的一些话还隐约记得。
半吊子全栈工匠
2020/02/17
9990
人工智能伦理学的一知半解
多家IT巨头公司就人工智能建立合作组织
全球IT产业的巨头谷歌、微软、IBM、脸书和亚马逊宣布就人工智能联合建立了一个非盈利性组织,其中谷歌子公司DeepMind以独立成员身份参与。 这个新成立的非盈利组织旨在促进公众对人工智能技术(AI)的了解,并就人工智能领域的挑战和机遇制定最佳实践。该组织被命名为“人工智能惠及人类与社会合作伙伴组织”(Partnership on Artificial Intelligence to Benefit People and Society,简称“人工智能合作组织”),学术机构、非盈利组织及政治和伦理道德界的专
人工智能快报
2018/03/07
8820
23条阿西洛马人工智能原则
人工智能的发展引人注目,看到波士顿动力公司的机器人视频,也会增加人们对于人工智能发展的危机感。所以必须有规则限制人工智能的发展方向,不可以使其危害人类,所以制定了阿西洛马人工智能原则。
Jasonangel
2021/05/28
2.1K0
2020年度全球人工智能十大事件
当前,新一代人工智能技术在全球蓬勃兴起,迅猛发展,与大数据、区块链、5G等新技术相互融合、相互因应,为经济社会发展尤其是数字经济发展注入新动能,正在深刻改变社会生产生活方式。与此同时,如何在新技术变革浪潮中始终立于主动,实现人工智能等前沿科技领域有效治理,确保其持续健康发展,也随之成为一个国际国内、社会各界都广泛关注的重大现实问题、重大时代议题。
肉眼品世界
2021/03/26
1.5K0
重大里程碑:顶级科学家达成23条人工智能发展原则!
作者 | 量子位 李林 今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。 这个原则在今年的Asilomar大会上达成。细节如下: 研究问题 1)研究目标 AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。 2)研究资助 对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研
量子位
2018/03/21
8300
重大里程碑:顶级科学家达成23条人工智能发展原则!
理解深度学习:第二十一章 深度学习与伦理
github: https://github.com/careywyr/UnderstandingDeepLearning-ZH-CN/tree/main
叶子的技术碎碎念
2025/04/08
1310
理解深度学习:第二十一章 深度学习与伦理
ISOC:人工智能与机器学习的政策建议
image.png 中国信息通信研究院与腾讯研究院AI联合课题组编译   蔡雄山 腾讯研究院法律研究中心副主任、首席研究员   曹建峰 腾讯研究院研究员   李金磊 腾讯研究院助理研究员   日前,国际互联网协会(ISOC)发布《人工智能与机器学习:政策文件》,分析当前的有限人工智能(narrow AI)发展和应用中面临的问题和挑战,并提出指导原则和建议。 引言   近年来,人工智能(artificial intelligence,缩写为AI)受到越来越多的关注。互联网使创新成为可能,也
腾讯研究院
2018/02/01
9690
ISOC:人工智能与机器学习的政策建议
信任、公正与责任:IEEE人工智能合伦理设计指南解读
蔡雄山  腾讯研究院法律研究中心副主任、首席研究员   曹建峰  腾讯研究院法律研究中心研究员   巴洁如  腾讯研究院法律研究中心高级研究员   孙  那  腾讯研究院法律研究中心研究员   李金磊  腾讯研究院法律研究中心助理研究员   不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。   美国、英国等开始重视AI伦理问题。今
腾讯研究院
2018/02/01
2.1K0
Science | 减轻在护理中人工智能的偏见
今天为大家介绍的是来自Matthew DeCamp 和 Charlotta Lindvall的一篇关于AI应用中医疗歧视问题的论文。《摘要总结》。
DrugAI
2023/09/19
2460
Science | 减轻在护理中人工智能的偏见
算法决策兴起:人工智能时代的若干伦理问题及策略|AI观察
本文系根据腾讯研究院研究员曹建峰在“全球人工智能技术大会·2017”的分论坛“AI变革时代的智能系统测评分论坛”上的演讲整理而来。 大家好!很荣幸今天有这个机会跟大家分享我自己对人工智能伦理的一些
腾讯研究院
2018/01/31
1.7K0
算法决策兴起:人工智能时代的若干伦理问题及策略|AI观察
斯坦福成立“以人为本人工智能研究院”,李飞飞担任共同院长
斯坦福大学今天正式宣布启动“以人为本人工智能项目”,目标是创建“以人为本人工智能研究院(Stanford Human-Centered AI Institute (HAI))”。
新智元
2018/11/08
7480
推荐阅读
相关推荐
Nature:人工智能研究的盲点
更多 >
加入讨论
的问答专区 >
1KOL擅长5个领域
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档