首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能时代,树立“数据”本身的权利意识更重要!

导语:人工智能的出现能以无法预知的方式改变现实生活中需要在选择知道和不知道的平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂,研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律。

继斯坦福大学于2018年1月开发了一种基于大数据的AI算法,能够以90%的准确率预测死亡后,谷歌旗下的Medical Brian团队于6月推出一种新的人工智能算法,可以帮助医院预测病人的死亡时间。

民意调查显示,如果有选择的话,大多数人宁愿不知道自己的死亡日期——甚至是快乐事件的发生日期也不想知道,现实生活中需要在选择知道和不知道之间达成微妙的平衡。

然而,如果出现一种技术,能以无法预知的方式改变了这种平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂的话,又会带来什么后果?

这种技术就是人工智能,可以利用相对较少的数据来找到模式并做出推论。例如,只需要几个Facebook上的点赞就可以预测出你的个性、种族和性别。还有一种计算机算法声称,只需根据人们的照片,就能以81%的准确率区分同性恋和异性恋男性,而区分同性恋和异性恋女性的准确率为71%。

在这些例子中,结论和所用的数据可能在本质上存在着惊人的偏差(即使某些结果的有效性仍在争论中)。这使得控制我们所知道的内容十分困难,而且也没有什么法规来帮助我们保持不知道的状态:不存在受保护的“不知情权”。

当涉及到我们私人生活的细节时,该如何保护不知情的权利呢?

20世纪90年代,保护个人不知情权利的法律就已经出台。例如, 1995年,世界医学协会的“患者权利宣言”(Rights of the Patient)中指出:“患者有权利明确要求不被告知(医疗数据),除非是为了保护其他人的生命。” 1997年的“欧洲人权和生物医学公约”(European Convention on Human Rights and Biomedicine)规定:“每个人都有权了解其被收集的有关健康状况的任何信息。但是,应当遵从个人不希望被告知的意愿。”

为人工智能制定“不知情权”法规是完全不同的问题,医疗数据受到严格管制,但人工智能所使用的数据往往掌握在名声不佳的盈利性科技公司手中。人工智能处理的数据类型也更广泛,因此任何相应的法律都需要对什么是“不知情权”有更深入的理解。研究故意不知情的心理,有助于设计适用于人工智能的不知情权法律。

刻意的不知情可以帮助人们维持“珍视的信仰”,并避免“精神不适、恐惧和认知失调”。故意不知情其实非常盛行,调查中大约90%的德国人希望避免可能由于“预知诸如死亡和离婚等负面事件”而产生的负面情绪,40%到70%的人也不想知道正面事件,以帮助保持“对惊喜和悬念的积极感受”,比如不知道未出生孩子的性别。

关于集体不知情在什么时候有益处,或者在道德上合理的问题,没有现成的答案。理想的做法是单独考虑每个案例,进行风险收益分析。理想情况下,鉴于争论的复杂性和后果的重要性,这一分析将公开进行,考虑各种利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏的情况。

这其中涉及的问题太多了……事实上,理想做法在大多数情况下都是行不通的。那么,我们又该如何做呢?

一种方法是控制和限制机器根据已采集数据进行的推理。例如,我们可以“禁止”使用种族作为预测变量的司法算法,或者从潜在求职者的预测分析中排除性别。但是,这种方法也存在问题。

首先,限制大公司使用信息的成本太高,技术难度也很大。这需要这些公司将算法开源,同时要求大型政府机构不断对其审查。另一方面,一旦采集到大量的数据集,总是会有很多迂回的方法来推理出“禁止的知识”。假设政府宣布使用性别信息来预测学术成功是非法的,那就可能出现使用“拥有汽车类型”和“最喜欢的音乐流派”作为性别替代指标,直接进行替代指标的二级推理。有时候,尽管一家公司的意图是好的,但有关性别的推理也可能意外地嵌入到算法中。

保护不知情权更激进,也可能更有效的方法是第一时间防止数据被收集。

2017年,德国做出了一项开创性的举措,立法禁止自动驾驶汽车通过种族、年龄和性别来识别道路上的人。这意味着汽车将无法通过这些类别的数据来做出驾驶决策,尤其是在事故不可避免时需要做出的决策。

基于相同的思维方式,欧盟推出了新的《通用数据保护条例》(General Data Protection Regulation,GDPR),并于2018年5月生效。该条例规定,只允许公司在提供明确的指定服务时,收集和存储必需的最少量数据,并且获得客户对其数据使用方式的同意,这种对数据获取的限制可能也会阻止二级推理。但《通用数据保护条例》的一个重要局限是,公司可以为自己设定非常宽泛的目标。

显然,我们还需要更多的限制手段,但究竟需要多少呢?

美国程序员、自由软件活动家理查德·斯托曼(Richard Stallman)说:“利用数据来害人的方法太多了,以至于唯一安全的数据库就是从未被收集过的数据库。”然而,如果对数据采集的限制过于严厉,又可能会阻碍人工智能的发展,并减少我们从中获得的收益。

谁应该权衡其中的利弊?首先应该是我们自己。

在大多数情况下,我们谈论的其实是你我作为个人所拥有的数据。我们一直都很粗心大意,将这些数据拱手让给各种闪亮的app,丝毫不考虑后果。

事实上,我们一直在放弃我们的数据,以至于忘记了一开始它就是属于我们的。收回数据将使我们每个人都能决定哪些事情想知道,哪些不想知道。让数据回到合适的人,也就是我们自己手中,就可以巧妙地解决我们讨论的许多艰巨问题。我们不再需要制定通用的预见性指导规范,相反的,数以百万计的个体将根据自己的是非观来决定自身数据的用途。我们可以对公司如何使用数据做出实时反应,根据他们对待数据的方式来进行惩罚或奖励。

在回答数据应该如何被使用的问题时,免费提供数据的意愿在道德完整性上是很好的试金石。一个小众群体中有多少人会愿意免费提供数据,又有多少人会愿意为此付费?赋予个人数据(较高的)经济价值可能会迫使人们分享他们的数据,并使数据隐私成为富人的特权。

这并不是说个人的单独行动就足够了,社会机构的集体行动也是必需的。即使只有小部分人口分享他们的敏感数据,其结果也可能具有大多数人反对的高预测准确性。并不是所有人都明白这一点。为了防止不必要的后果,我们需要更多的法律和公共讨论。

《经济学人》曾写道,世界上最宝贵的资源不再是石油,而是数据。数据与石油有着很大不同,数据是无限的资源,由个人所有,并且通常是在没有交易价值的情况下进行交换。

作为第一步,从数据中获取利润将为我们提供空间,用于创造和维持能在人工智能到来之后延续的道德标准,并为管理集体的不知情权铺平道路。换句话说,在数据成为现代世界最有用的商品之一的同时,它也需要成为最便宜的商品之一。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180705A19CWA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券