作者:沃夫冈·瓦尔斯特尔
(Wolfgang Wahlster)
德国人工智能研究中心CEO
如今,围绕人工智能的兴奋情绪不仅反映了人工智能应用程序如何能够改变企业和经济,还反映了它们能够应对癌症和气候变化等挑战的希望。人工智能能够彻底改变人类福祉的想法显然很吸引人,但它面对的现实是什么样呢?
为了回答这个问题,麦肯锡全球研究所研究了150多个应用人工智能或可能应用于社会公益的场景。他们发现,人工智能可以为解决许多类型的社会挑战做出强有力的贡献,但它并非灵丹妙药——至少目前还不是。虽然人工智能的覆盖面很广,但在全球范围内实现其效益之前,必须克服开发瓶颈和应用风险。
可以肯定的是,人工智能已经在改变我们应对人类发展挑战的方式。例如,在2017年,目标探测软件和卫星图像帮助休斯顿的救援人员在飓风哈维过后航行。在非洲,算法帮助减少了野生动物公园的偷猎行为。
在丹麦,语音识别程序被用于紧急呼叫,以检测呼叫者是否出现心脏骤停。在波士顿附近的麻省理工学院媒体实验室,研究人员在模拟临床试验中使用了“强化学习”方法,让胶质母细胞瘤患者减少化疗剂量。胶质母细胞瘤是最具侵袭性的脑癌。
甚至,人工智能已经可以通过心率传感器数据检测出糖尿病的早期症状;帮助自闭症儿童管理自己的情绪;指导视力受损的人。如果这些创新被广泛应用,对人类的健康和社会的效益将是巨大的。事实上,我们的评估得出的结论是人工智能技术可以加速实现联合国的17项可持续发展目标。
但如果想让这些人工智能解决方案中的任何一种在全球范围产生影响,它们的使用必须大幅增加。要做到这一点,我们必须首先解决发展障碍,同时降低可能使人工智能技术弊大于利的风险。
在开发方面,数据可访问性是最重要的障碍之一。在许多情况下,具有社会应用的敏感或商业可行性数据是私有的,非政府组织无法访问。在其他情况下,官僚机构的惰性会将原本有用的数据锁起来。
所谓的最后一英里的执行挑战是另一个常见的问题。即使在数据可用且技术成熟的情况下,数据科学家的缺乏也会使在本地应用人工智能解决方案变得困难。解决缺乏具备加强和实施人工智能能力所需技能的工人的一个方法是,雇佣这些工人的公司将更多的时间和资源投入到有益的事业中。他们应该鼓励人工智能专家从事公益项目,并奖励他们这样做。
当然会伴随着风险。人工智能的工具和技术可能被滥用——有意或无意。例如,偏差可以嵌入到AI算法或数据集中,这可以在使用应用程序时放大现有的不平等。根据一项学术研究,浅肤色男性的面部分析软件错误率不到1%,而深肤色女性的错误率高达35%,这给如何在人工智能编程中解释人类偏见提出了重要问题。另一个明显的风险是那些意图威胁个人、数字、财务和情感安全的人对人工智能的滥用。
来自私营和公共部门的利益攸关方必须共同努力解决这些问题。例如,为了增加数据的可用性,公共官员和私营部门应允许更广泛地接触那些试图将数据用于服务于公共利益的行动的人。卫星公司已经参与了一项国际协议,承诺在紧急情况下提供开放接入服务。像这样依赖数据的合作关系必须得到扩展,并成为公司日常运作的一个特点。
人工智能正迅速成为人类发展工具箱中最宝贵的一部分。但如果想让人工智能在全球范围内更好的潜力得到充分体现,支持者们就必须少关注炒作,多关注和解决阻碍其实现的障碍。
预约沃夫冈·瓦尔斯特尔演讲及出席活动
请联络演讲局
领取专属 10元无门槛券
私享最新 技术干货