首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

纪江明:人工智能技术治理的潜在风险及其应对策略

近年来,人工智能成为热点,在给人类带来红利的同时,也给社会带了很多安全隐患。而技术治理的兴起,激发了人们把对改造自然成效卓著的科学技术应用于社会治理中。本文旨在分析人工智能技术治理的潜在风险,未雨绸缪,提出具有针对性的对策建议。

20世纪30年代,数学家、逻辑学家图灵(Alan Mathison Turing)用数学逻辑语言编写了自动机理论,旨在推动机器思维的发展,这是人工智能逻辑的最早萌芽。50年代,麦卡锡(John McCarthy)等5位科学家在美国专题研讨用机器模拟人类智能议题时,首次提出了人工智能(Artificial Intelligence,AI)概念。当前,随着互联网大数据处理以及深度学习的突破,人工智能研究与开发进入新的发展阶段,其特征是“海量数据、深度融合、快速计算、精密处理”。随着深度学习技术的快速发展,其复合算法越来越精确,人工智能逐渐拥有编程语言处理、语音识别、机器视觉等功能,进而可能拥有像人类一样的思维逻辑和知识智慧。

高科技时代也是一个高风险时代,人工智能时代存在着潜在的社会风险。英国物理学家霍金曾预言,人工智能会对人类社会带来极大危害。我们应警惕人工智能发展带来的潜在危害。

1.个人隐私安全风险。一是个人数据产生端的安全防护。很多大型互联网公司都拥有大量用户实名注册信息,这些信息一旦泄露,后果不堪设想。二是个人信息的被动泄露。如为了攫取不当利益,内部网管人员或外部黑客分子,会采取盗取密码、偷改程序、病毒传输等非法手段,控制机器程序,实施侵权行为。三是智能硬件可能存在漏洞。这些漏洞一旦被网络犯罪分子利用,带来的攻击力量将会是非常巨大的。如当前的智能手机或自动驾驶汽车软件里的一些小漏洞,平时看起来无害,一旦被网络不法分子利用,可能会带来毁灭性后果。

2.伦理道德风险。一是算法程序偏差带来的伦理定位问题。在机器人的工作程序中,需要设置统一的道德标准和道德框架,这样当算法程序出现偏差时,就可以在很大程度上避免出现伦理道德问题。二是人类对机器人虚拟环境的盲目依赖症。机器人可以在很大程度上模拟人类的各类行为,未来人类的衣食住行、办公决策、管理协调等,或许都会由机器人协助完成,人际关系将演变成人机界面关系,人类将会对机器人产生严重的依赖症。三是异化危机。有专家认为,人类正在创造一个比自身更加强大的物种。科学家创造出来的科技成果,往往并不能由本群体决定是否投入使用。机器人不仅可以代替人类的体力劳动、脑力劳动,甚至将来可以代替人类的情感活动(如陪伴机器人),会对人类的情感世界带来干扰,影响人类社会的正常发展。

3.人工智能的监管问题。一是权益监管。据牛津大学统计,未来人工智能的发展会取代1000万个工作岗位。在美国,从联邦政府到州政府都出台了相应文件,从法律层面对无人驾驶进行了严格规定,使其在准入条件、技术标准、安全措施等方面得以规范。如何加强对机器人工人、机器人白领的监管,保护它们的权益和义务,是将来值得研究的问题。二是技术监管。人工智能对监管的技术要求更高,技术控制是风险治理机制的重要措施。当算法出现偏差时,机器人会出现说脏话、性别歧视和种族歧视等现象,这需要加强监管技术,控制预置过程,避免出现技术偏差。

在人工智能领域,面对诸多问题与挑战,我们应采取多元共治的总体思想,从立法、监管、漏洞防范、国际合作等方面采取对策。

1.对人工智能活动进行立法。有关机器人的系列定律,最早由阿西莫夫于1950年提出,其中最重要的是第零定律。根据这些定律,我们需要加强立法,对人工智能的研发、技术、活动、道德等进行规制。英国、美国、澳大利亚等国均对计算机创作物进行过规制。2017年,欧洲议会法律事务委员会倡导制定有关人工智能与机器人的法律,让高水平智能机器人享受与自然人一样的主体地位,同样拥有身份证、养老资格、财产账号等权益,以及纳税人义务。机器人能不能成为民事主体,还有待商榷。在技术研发以及推广使用时,应对机器人的智能等级进行量化,根据不同等级制定不同的应用范围。高科技公司引入机器人时,应将机器人等级与公司规模相匹配,限制引入机器人的数额和比例,严格控制机器人的滥用。

2.加大对人工智能活动的监管力度。为防止人工智能的肆意开发与过度使用,有必要设立监管部门进行专项监督,出台审计措施和相关的监管措施,保障人、机权益,规范市场行为,维护行业秩序。一是优化人工智能的软硬件环境。对服务器、客户终端、网络系统、软件安全性等进行实时监控和安全测试,一旦出现问题立即报警。二是要掌握安全主动权。采取事先预防而不是事后补救的风险规避路径。加强后继服务管理与人工智能技术治理的衔接,出台一系列安全规范措施,推动人工智能健康、可持续发展。三是引入有关保险产品。针对人工智能与机器人的企业责任保险、个人人身保险、失业保险与财产保险,为被保险人提供安全防护,弥补失业、人身伤亡与财产破坏带来的损失。

3.强化对人工智能系统的漏洞防范。为了防御人工智能系统的安全漏洞,技术研发者和产品使用者应联手制定有效的技术安全标准及防御对策,统一用户身份管理、授权管理、访问管理,确保用户数据信息的登录安全、存储安全、使用安全。对于企业来说,应及时转变观念,改变以往隐瞒不报的情况,承认有漏洞的客观存在,积极上报,为信息安全公司修复漏洞提供数据,为网络空间治理和打击犯罪分子提供证据,提升国家整体的网络安全能力。还可以动员群众,群策群力,让内部员工、外部客户、技术志愿者等一起挖掘人工智能系统漏洞。当挖掘出漏洞时,应该及时推出修补程序包,能够让用户迅速地更新优化程序。

(本文系国家社科基金项目(16BRK012)阶段性成果)

(作者单位:湖州师范学院)

原标题:纪江明:应对人工智能技术治理潜在风险

来源:中国社会科学网—中国社会科学报

责任编辑:黄琲 排版编辑:黄琲

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190514A05A0D00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券