首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

堪比核战和疫情!Sam Altman等350位大佬发出警告,AI监管成共识

随着人工智能的高速发展,其可能带来的风险也引发广泛关注。

继此前马斯克等千人签署公开信,呼吁暂停AI开发六个月后,近期,OpenAI首席执行官Sam Altman等多位行业专家又来提示风险。

350名行业高管和学界大拿发出警告

当地时间5月30日,非营利组织人工智能安全中心(CAIS)发布一封公开信,信中只有一句简单有力的话:减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险处于同等级别。

该信的签署者多达350名行业专家和企业高管,包括OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。

学界上,2018年图灵奖获得者、“人工智能教父”Geoffrey Hinton和Yoshua Bengio位列其中。

此外,签署者还包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等中国学者。

AI监管成共识

目前来看,AI可能带来的风险已经受到世界各国和各界的重视。此前,意大利等国家对ChatGPT发起监管,暂停其的使用。而且,欧盟正在推进《AI法案》,对AI形成监管。

对此,Sam Altman曾威胁离开欧洲。他在伦敦大学学院的一个小组会议上说:“我们将努力遵守,如果我们能遵守,我们会的。如果不能,我们将停止运营。”几天后,他又改口称,OpenAI没有离开欧洲的计划。

美国方面,本月早些时候,Sam Altman会见了美国总统拜登,并在参议院司法委员会作证,要求加强对AI行业的监管。

他在作证时说:“我最担心的是我们会对世界造成重大伤害。如果AI出了问题,那这个问题可能就会很大。”

上周,他还与OpenAI的另外两位联合创始人发表的一篇博客文章,呼吁进行三项重大改革,包括加强世界各地人工智能开发者之间的协调,以及创造一种可以控制人工智能创造的潜在“超级智能”先进技术。

他还鼓励成立一个结构类似于国际原子能机构的人工智能技术全球监管小组,有权检查系统、要求审计和测试是否符合安全标准。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230531A01Q7A00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券