中新网6月1日电 据美国《纽约时报》报道,5月30日,超过350名人工智能领域的行业高管、研究人员和工程师签署了一封公开信,他们在信中警告称,AI可能给人类带来“灭绝风险”。
这封公开信只有一句话的声明:“减轻人工智能带来的灭绝风险,应该成为全球的优先事项,就像应对其他社会规模的风险——如大流行病和核战争一样。”
资料图:ChatGPT。
该公开信由非营利组织人工智能安全中心(Center for AI Safety)发表,350多名签署者中包括三家领先人工智能公司的高管:OpenAI首席执行官山姆·阿尔特曼,谷歌DeepMind首席执行官杰米斯·哈萨比斯,以及Anthropic首席执行官达里奥·阿莫代伊。
《纽约时报》称,最近,大型语言模型,即ChatGPT和其他聊天机器人使用的人工智能系统所取得的进展,引发了人们的担忧。人们担心,人工智能有可能很快就会被大规模用于传播错误信息和宣传,或者可能消除数百万白领的工作。
5月,阿尔特曼、哈萨比斯和阿莫代伊曾与美国总统拜登和副总统哈里斯碰面,讨论人工智能的监管问题。在会后的参议院证词中,阿尔特曼警告,先进人工智能系统的风险已经严重到需要政府干预的程度,同时,他呼吁对人工智能的潜在危害进行监管。
当地时间2023年5月16日,OpenAI首席执行官山阿尔特曼 (Samuel Altman) 出席参议院司法委员会下属的隐私、技术和法律委员会举办的听证会。
此前,阿尔特曼和OpenAI的另外两名高管提出了几种负责任地管理强大人工智能系统的方法。他们呼吁领先的人工智能制造商进行合作,对大型语言模型进行更多技术研究,并成立一个类似于国际原子能机构的国际人工智能安全组织。
阿尔特曼还表示,支持制定规则,要求大型尖端人工智能模型的制造者,注册政府颁发的许可证。
“我认为如果这项技术出了问题,它可能会大错特错。”阿尔特曼告诉参议院小组委员会。“我们希望与政府合作,防止这种情况发生。”
据报道,今年3月,包括埃隆·马斯克在内的1000多名科技领袖、技术人员和研究人员签署了另一封公开信,呼吁暂停开发最大的人工智能模型六个月,理由是担心“开发和部署更强大数字思维的竞赛失控”。
(中国新闻网)
领取专属 10元无门槛券
私享最新 技术干货