Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【前沿】IEEE发布人工智能伦理标准,确保人类不受影响

【前沿】IEEE发布人工智能伦理标准,确保人类不受影响

作者头像
WZEARW
发布于 2018-04-10 08:40:48
发布于 2018-04-10 08:40:48
1.1K0
举报
文章被收录于专栏:专知专知

【导读】人工智能(AI)已经从一个科幻小说式的探索领域发展到一个蓬勃发展的科技领域,在这个领域里,不可能的事情正在成为可能。为了确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准。

IEEE 自称为“世界上最大的技术进步技术专业组织”。根据最近发布的一份新闻稿,他们的人工智能标准将优先考虑人类,因为他们承诺要跟上该领域不断发展的脚步。

这些新标准将成为一份题为《伦理一致的设计:将人类福祉与人工智能和自主系统优先考虑的愿景》的 IEEE 文档的一部分。这份文件将继续随着时代的变迁而不断变化,鼓励那些推动技术进步的人考虑这样的进步可能会如何影响伦理方面的担忧。

Satoshi Tadokoro 是 IEEE 机器人和自动化协会的主席,他解释了为什么他们在发布会上制定了这样的标准:“机器人和自动系统将为社会带来重大创新。最近,公众越来越关注可能发生的社会问题,以及可能产生的巨大潜在利益。不幸的是,在这些讨论中,可能会出现一些来自虚构和想象的错误信息。”

Tadokoro 继续说道:“IEEE 将基于科学和技术的公认事实来引入知识和智慧,以帮助达成公共决策,使人类的整体利益最大化。”三大人工智能标准将作为一个单独的项目引入,每个项目由专家领导。

  • 第一个标准:“机器化系统、智能系统和自动系统的伦理推动标准”。这个标准探讨了“推动”,在人工智能世界里,它指的是影响人类行为的微妙行动。
  • 第二个标准:“自动和半自动系统的故障安全设计标准”。它包含了自动技术,如果它们发生故障,可能会对人类造成危害。就目前而言,最明显的问题是自动驾驶汽车。
  • 第三个标准:“道德化的人工智能和自动系统的福祉衡量标准”。它阐述了进步的人工智能技术如何有益于人类的益处。

这些标准的实施可能比我们想象的要早,因为像 OpenAI 和 DeepMind 这样的公司越来越快地推进人工智能的发展,甚至创造出能够自我学习又扩大“智能”领域的人工智能系统。专家们认为,这样的人工智能会破坏世界稳定,导致大规模的失业和战争,甚至转向创造“杀人武器”。最近,联合国的重要讨论促使人们开始认真思考,需对将人工智能技术当作武器使用进行更严格的监管。

这三个标准项目有望能够规范人工智能的发展,而不是阻碍进步,但是我们所了解的社会也并未被我们努力创造的东西所破坏。

特别提示-IEEE报告下载:

请关注专知公众号

  • 后台回复“IEEEAI” 就可以获取报告pdf下载链接
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-11-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 专知 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
新版“人工智能设计的伦理准则”白皮书全球重磅发布
美国时间2017年12月12日上午9点,电气电子工程师协会(IEEE)于全球发布了第2版的“人工智能设计的伦理准则”白皮书("Ethically Aligned Design" V2)。北京时间12月12日晚上10点,IEEE官方概要译文也同步在中国发布。IEEE白皮书概要的官方译文如下: 《人工智能设计的伦理准则》(第2版) 概要 简介 随着自主和智能系统的应用和影响无处不在,我们需要建立社会与政策方面的指南,从而确保这些系统以人为本,并服务于人类价值和伦理准则。为了能够以积极的、非教条的方式推动自主
企鹅号小编
2018/03/01
2K0
新版“人工智能设计的伦理准则”白皮书全球重磅发布
信任、公正与责任:IEEE人工智能合伦理设计指南解读
蔡雄山  腾讯研究院法律研究中心副主任、首席研究员   曹建峰  腾讯研究院法律研究中心研究员   巴洁如  腾讯研究院法律研究中心高级研究员   孙  那  腾讯研究院法律研究中心研究员   李金磊  腾讯研究院法律研究中心助理研究员   不经意间,人工智能(AI)成为2016年主流话题之一。有关技术进步的报道,充斥着媒体。AI将深刻影响生活、社会、经济、法律、政治、全球格局等诸多方面。AI应用的拓展和加深,使得AI伦理问题日益突出,成为关注焦点。   美国、英国等开始重视AI伦理问题。今
腾讯研究院
2018/02/01
2.1K0
【震撼】联合国视频曝光 AI 杀手机器人:人脸定位,一击而中,极端致命
人工智能一旦脱离束缚,就会以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代,这将给我们的经济带来极大的破坏。 ——霍金 近日,在日内瓦举办的联合国特定常规武器公
WZEARW
2018/04/10
9370
【震撼】联合国视频曝光 AI 杀手机器人:人脸定位,一击而中,极端致命
为什么欧盟呼吁共建 AI 伦理准则?
下面这些问题,可能在我们不久的将来(一年或者两年?)就会出现在我们身边: 1.目前人工智能正逐渐大规模地应用于医疗行业,许多疾病的诊断已经可以通过机器学习的方法来完成。但是我们设想,如果人工智能诊断出现医疗误判,最终导致医疗事故,那么谁将来承担事故责任呢?是提供技术的公司,还是医院,或者医生个人? 2.自动驾驶正逐渐上路,据各方估计在2020年之前自动驾驶汽车将进入消费市场。不可避免的,自动驾驶汽车在不熟悉的环境中可能会导致交通事故(例如2016年的特斯拉自动驾驶汽车事故),那么在这种情况下谁将承担法律
AI科技评论
2018/03/30
7910
为什么欧盟呼吁共建 AI 伦理准则?
人工智能安全标准现状与思考
文章主要从五个方面分析了人工智能安全标准化的需求,包括人工智能安全标准化的现状、人工智能安全标准化需求、人工智能安全标准化框架、人工智能安全标准体系和人工智能应用安全标准。文章认为,人工智能安全标准化工作应从通用安全、应用安全和数据安全等方面入手,以保障人工智能技术的安全、可靠、可控。同时,文章还提出了人工智能安全标准化工作的建议,包括加强人工智能安全基础标准研究、深化人工智能应用安全标准工作、加强人工智能安全标准国际交流与合作等。
企鹅号小编
2018/01/05
2.8K0
人工智能安全标准现状与思考
人工智能的伦理与社会影响
人工智能(Artificial Intelligence,AI)技术在过去几年内取得了巨大的进展,对各个领域产生了深远的影响。然而,随着AI的广泛应用,人们开始越来越关注其伦理和社会影响。本论文旨在探讨人工智能技术的伦理问题,以及其在社会中可能带来的影响。我们将着重讨论数据隐私、工作岗位的未来、决策透明性以及AI的道德责任等议题,以期为更好地规划和引导人工智能的发展提供一些建议。
猫头虎
2024/04/08
6010
人工智能的伦理与社会影响
IEEE发布AI三原则:机器人革命中需要保护人类福祉 | 138页报告
问耕 编译整理 量子位 出品 | 公众号 QbitAI 昨天波士顿动力机器人逆天一般的后空翻,展示了当下最为先进的机器人技术。毫无疑问,随着AI技术的发展,机器人也正在快速成长。 当然,这个过程中也会
量子位
2018/03/23
9060
ChatGPT伦理挑战:人工智能的权利与责任
人工智能技术的迅猛发展为社会带来了许多便利,其中ChatGPT作为自然语言处理领域的代表性技术,其功能与应用也日益广泛。然而,随着人工智能的普及,我们不得不面对一系列伦理挑战,这些挑战涉及人类的隐私保护、算法偏见、人类失业等问题。本文旨在探讨ChatGPT及其他人工智能系统所面临的伦理挑战,以及对应的权利与责任问题。通过道德设计与监管措施的引入,以及社会参与与教育的推动,我们希望能够为人工智能的合理使用和治理找到平衡点。
猫头虎
2024/04/08
3660
ChatGPT伦理挑战:人工智能的权利与责任
人工智能伦理学的一知半解
读MBA时候的授业导师是周教授,周教授有一门颇受学生们欢迎的课程是“企业伦理学”。时隔多年,课本的内容已经还给了学校,但周老师课上的一些话还隐约记得。
半吊子全栈工匠
2020/02/17
9780
人工智能伦理学的一知半解
腾讯研究院:2017年全球人工智能政策十大热点
2017年是人工智能迅猛发展的一年,技术在进步,不断取得突破,各行各业都在和人工智能技术相结合。2017年也是人工智能公共政策异常热闹的一年,各国的人工智能战略还在持续出台,自动驾驶、算法规制、人工智能伦理等细分领域的政策、立法、标准在政府、科研机构、行业公司等多层面逐步展开。 人工智能有望引领一场新技术革命,带来全新的或者更深层次的法律、伦理、经济等社会制度影响和问题,因此需要搭建起政策和技术之间交流沟通的桥梁和连接,及早让跨学科、多元化的参与者共同来推动普惠的人工智能发展,确保人工智能能够有益于人类
企鹅号小编
2018/01/11
1.2K0
腾讯研究院:2017年全球人工智能政策十大热点
十项建议解读欧盟人工智能立法新趋势
中国信息通信研究院与腾讯研究院AI联合课题组 作者:曹建峰  腾讯研究院法律研究中心研究员 各国纷纷关注人工智能伦理和法律问题       2016年以来,人工智能不仅受到科技公司热捧,人工智能在智力游戏、自动驾驶、语音和图像识别、翻译等诸多领域取得重大突破,谷歌、脸书、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。而且,各国政府(比如美国、英国等)以及一些社会公共机构(比如UN、IEEE等)开始积极关注人工智能的法律、伦理、社会、经济等影响,密集出台战略文件和报告
腾讯研究院
2018/02/01
1.4K0
AI 公共政策成全球热点,美国 ITI 发布《人工智能政策原则》
作者:曹建峰 腾讯研究院法律研究中心高级研究员   祝林华 腾讯研究院法律研究中心助理研究员 一、 AI公共政策成AI领域全球热点 AI研究开发和行业应用的热度仍在持续,在此背景下,A
腾讯研究院
2017/11/02
1.8K0
2020年度全球人工智能十大事件
当前,新一代人工智能技术在全球蓬勃兴起,迅猛发展,与大数据、区块链、5G等新技术相互融合、相互因应,为经济社会发展尤其是数字经济发展注入新动能,正在深刻改变社会生产生活方式。与此同时,如何在新技术变革浪潮中始终立于主动,实现人工智能等前沿科技领域有效治理,确保其持续健康发展,也随之成为一个国际国内、社会各界都广泛关注的重大现实问题、重大时代议题。
肉眼品世界
2021/03/26
1.5K0
关注AI伦理,软件绿色联盟发布《可信人工智能产业标准研究报告》
随着人工智能技术的发展,人工智能技术被广泛运用在医疗、交通、金融、电子商务等各个领域。在带来巨大变革的同时,人工智能也引起了社会各界对人工智能在伦理和安全方面的担忧,构建人工智能伦理相关规范的紧迫性日益彰显。
软件绿色联盟
2022/03/31
3650
ISOC:人工智能与机器学习的政策建议
image.png 中国信息通信研究院与腾讯研究院AI联合课题组编译   蔡雄山 腾讯研究院法律研究中心副主任、首席研究员   曹建峰 腾讯研究院研究员   李金磊 腾讯研究院助理研究员   日前,国际互联网协会(ISOC)发布《人工智能与机器学习:政策文件》,分析当前的有限人工智能(narrow AI)发展和应用中面临的问题和挑战,并提出指导原则和建议。 引言   近年来,人工智能(artificial intelligence,缩写为AI)受到越来越多的关注。互联网使创新成为可能,也
腾讯研究院
2018/02/01
9650
ISOC:人工智能与机器学习的政策建议
ChatGPT 之优势与缺陷
欢迎来到《ChatGPT:好的、坏的和丑陋的》。在本书中,我们踏上了探索 ChatGPT 多面世界的旅程,这是由 OpenAI 开发的先进自然语言处理模型。随着 ChatGPT 和类似的人工智能技术不断发展并影响我们生活的各个方面,了解它们的潜力、局限性和道德影响至关重要。本书旨在全面探讨 ChatGPT 的好的、坏的和丑陋的方面,揭示其革命性进展、潜在陷阱以及它所带来的复杂挑战。
ApacheCN_飞龙
2024/05/24
1230
罗氏的人工智能伦理原则
2023年12月,罗氏发布《Roche Artificial Intelligence (AI) Ethics Principles》,介绍了罗氏为人工智能解决方案的设计、开发、部署和监控制定的一套明确的原则。
智药邦
2025/01/07
1420
罗氏的人工智能伦理原则
白宫号召美国各界为迎接人工智能时代做好准备
未来,人工智能将大展身手,为使美国做好准备,白宫发布了一份关于人工智能未来发展方向及思考的报告,名为《为人工智能的未来做好准备》(Preparing for the Future of Artificial Intelligence)。该报告分析了人工智能的现状、现有应用和潜在应用、以及人工智能发展对社会和公共政策提出的问题,主要内容包括: (1)人工智能在公共事业中的应用 人工智能和机器学习最有前景的应用之一是其有助于应对世界上某些最严峻的挑战和改变最低效的工作方式,从而改善人们的生活。公共部门和私营部门
人工智能快报
2018/03/07
9720
《为人工智能系上道德缰绳:确保自主决策的伦理遵循》
在科技飞速发展的当下,人工智能(AI)已经逐渐从科幻小说中的想象变为现实生活中的重要存在。从智能家居设备到自动驾驶汽车,从医疗诊断系统到金融交易算法,AI 的应用无处不在,深刻地改变着我们的生活方式和社会运行模式。然而,随着 AI 系统的自主性和决策能力不断增强,一个严峻的问题摆在我们面前:如何确保人工智能在自主决策时遵循人类的道德准则?
程序员阿伟
2024/12/09
1880
重大里程碑:顶级科学家达成23条人工智能发展原则!
作者 | 量子位 李林 今天AI领域都在谈论一件事。DeepMind表示,很自豪成为Asilomar人工智能原则的签署者,这是一个AI和伦理方面的重大进步。而硅谷钢铁侠伊隆-马斯克指出,顶级的AI研究人员在人工智能发展方面达成一致:开发对人类有益的人工智能。 这个原则在今年的Asilomar大会上达成。细节如下: 研究问题 1)研究目标 AI研究的目标,不是创造不受指导的智能,而是创造有益人类的智能。 2)研究资助 对人工智能的投资,应确保相关研发是有益人类的,包括计算机科学,经济学,法律,伦理和社会研
量子位
2018/03/21
8280
重大里程碑:顶级科学家达成23条人工智能发展原则!
推荐阅读
相关推荐
新版“人工智能设计的伦理准则”白皮书全球重磅发布
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档