谈到ChatGPT,你最先想到什么?
能敲代码、写文案、翻译、作诗、聊天
甚至能创作小说
这款新进化的AI似乎是个“全能选手”
最近讨论的热火朝天的ChatGPT
让不少人感受到了“职业危机”
人工智能发展迈进新阶段
到底是机遇,还是挑战?
它又会对整个社会和经济的发展
带来怎样的影响?
近日,学部王春峰教授和姚守宇老师
网络首发于《产业经济评论》的文章
ChatGPT新一代人工智能技术发展的
经济和社会影响
从多方面探讨了ChatGPT
并提出了建议
以ChatGPT技术冲击为切入点,从传统人工智能产业、劳动力与就业、教育、科学研究与科技伦理四个方面进行探讨,本文分析了新一代人工智能技术发展对经济与社会的影响。
研究认为,ChatGPT加速了生成式AI布局的同时也可能对传统人工智能产业的生存造成打击并引发伦理与安全挑战;在劳动力与就业方面,ChatGPT的出现对不同技能劳动者的影响是不同的,中等技能劳动者受到影响较大,而高等和低等技能劳动者受到影响相对较小;在教育方面,ChatGPT对教育体系的冲击加速了人们对教育方式、教育侧重点和教育评价的思考;在科学研究与科技伦理方面,由于ChatGPT生成的学术研究不满足严谨性和科学性,从而助长了虚假信息传播和剽窃抄袭等行为并影响了整个学术生态。同时,ChatGPT创建者的大型企业利用技术的垄断也带来了科技伦理问题和价值渗透问题。
为充分利用好ChatGPT带来的发展红利,加速各种应用场景落地,并防范其可能引发诸多冲击和风险,本文最后亦提出了系列政策建议。
文章发表于《产业经济评论》(2023-3-12)。
DOI:10.19313/j.cnki.cn10-1223/f.20230310.002
为了更好地规范人工智能技术研究应用,有效防范应对风险挑战,促进相关产业健康有序发展,本文对类ChatGPT的新一代人工智能技术的政策制定完善提出以下几点建议。
1
推动新一代人工智能产业发展
一是加强产研结合,促进技术创新。当前,人工智能作为我国战略性新兴产业,已成为新的增长引擎,也是未来我国深入发展数字经济的重要组成部分。因此,进一步激发创新活力,优化创新模式,推进新一代人工智能技术的突破完善有着必要性意义。要着力构建产研融合的协同创新体系,加大人工智能领域资金投入和资本汇集,广泛设立国家级人工智能项目,通过倾向性政策鼓励企业创新和相关人才培养,综合利用重点科研机构和大型科技企业的双重优势,拓深基础理论研究,攻破技术应用难点,加快促进相关技术水平的不断突破,提升产业核心竞争力。
二是加快场景落地,打造产业生态。人工智能的广泛应用将成为未来经济社会发展的重要环节,随之而来的的行业标准制定权和市场占有头部效应也将成为影响各国在人工智能领域竞争的关键因素。因此,广泛布局人工智能产业应用,加速实施应用场景落地,实现新一代人工智能技术和经济社会发展的深度融合成为重中之重。一方面,要促进人工智能技术与传统行业的嵌合应用,推动相关产业的转型升级,营造智能业态;另一方面,要在重大应用场景中反复打磨技术,探索建立有效的试错机制,通过规划建设人工智能技术应用试点和场景应用示范区,实现基础理论研究向技术实践应用的成果转化,尽快掌握产业话语权和市场主动权。
三是加深开放合作,实现共赢发展。互联网技术的出现曾极大地加速了全球化进程。如今,新一代人工智能技术的持续发展和应用也将为各个国家地区带来更紧密的联结和更深刻的影响。因此,人工智能产业的发展需要兼顾国内研发推广和国际战略布局。要主动融入全球科技创新网络,积极统筹配置国内国际资源,加强国际科技交流合作,深化人工智能技术共研共享共用;同时,敏锐捕捉国际需求,加快海外市场开发,瞄准全球推出兼具生产标准化和服务个性化的新一代人工智能产品,提升我国人工智能产业的国际影响力。
2
完善新一代人工智能监管规制
一是构建由政府主导控制,其他利益相关者协调运作的监督框架。随着人工智能技术的不断突破,与人类生活的嵌合程度不断加深,其因失控对人造成伤害的可能性越大、伤害程度更深。然而,政府作为社会管理的主导者,应当成为系统数据库的主要控制者、管理者和监督者,站在维护公众利益的立场,为社会成员的数据信息安全提供更为有力的保障,并通过控制保持训练数据的“高质量”,引导传递正确的社会价值观;同时,广泛借助社会相关机构或人士专业知识技能和特有视角发现问题、解决问题,确保监管的全面性、连贯性和有序性。
二是进一步完备人工智能立法监管,明确权责边界。新一代人工智能大多基于黑箱系统,往往是不具备可解释性的,其行为后果在法律层面很容易出现权责界定模糊的问题。因此,应从立法角度出发,完善监管处罚的适用性。首先,对于开发者来说,应明确透明度要求,确保系统记录的可追溯性,并在必要时一定范围内公布相关数据;其次,对于人工智能产品本身来说,应根据其算法机理、自主性程度,探索明确不同AI产品的法律权力范围,并在必要时通过合理的方式承担相应的法律责任,杜绝违背社会伦理和道德法律的产品研发和行为设计;最后,对于使用者而言,应结合人工智能技术在相关领域的应用情况,改进诸如知识产权、隐私侵犯等现有法律条款,严格约束用户借助AI产品的功能而实施的恶意行为。
三是建立风险分级评估体系,构建全过程覆盖、多方参与的风险管控机制。从“基于风险的路径”视角来看(程莹等,2021),根据人工智能技术发展程度和具体应用阶段的不同,所体现出的风险水平和风险侧重也有所不同。一方面,应研究确定合适的评价指标,对AI产品风险作出分级分类,实施差异化监管,尤其是在制定相关标准时,除了可参照已有的共性标准划分外,应更多地考虑中国国情,因地制宜地做出调整改进。另一方面,有必要基于风险对人工智能产品进行全周期监管的制度设计,预先识别分析可预知的风险,设置市场准入门槛,由政府、企业、用户以及相关机构共同参与加强市场监督,同时制定适合AI产品的召回、追责等应对措施和制度等。
四是探索AI监管沙盒机制,推动技术与政策的双向适应。目前,人工智能产业正处于蓬勃发展的阶段,相关监管措施正在摸索与实践中不断调整完善。对此,我们可以通过搭建监管沙盒,一方面,帮助企业提前评估风险、摸索市场、改进设计,进一步提高容错性,赋予其更多的创新机会和可能;另一方面,相关机构提前介入监管,可以更全面深入地了解技术优势和弊端,并结合实践,制定完善更合适的政策,降低监管的不确定性和滞后性。
最后,需要指出的是,及时跟进适应新一代人工智能技术冲击带来的社会变革,合理平衡技术应用和社会伦理的作用关系,防范应对潜在威胁,探索行之有效的监管机制,充分发挥政策弹性,在完善监管的同时鼓励创新,积极迎接和布局人工智能时代,仍是我们需要慎重思考的问题和未来一段时间的努力方向。
领取专属 10元无门槛券
私享最新 技术干货