被称为“人工智能教父”的计算机科学家Geoffrey Hinton表示,如果人类不小心的话,人工智能增强的机器“可能会接管一切”。
75岁的Hinton在接受哥伦比亚广播公司《60分钟》节目采访时说,快速发展的人工智能技术可能在“五年内”获得比人类更聪明的能力。
他补充说,如果这种情况发生,人工智能可能会进化到人类无法控制的程度。
Hinton说:“这些系统可能逃脱控制的方法之一是编写自己的计算机代码来修改自己。”“这是我们需要认真担心的事情。”
Hinton因其数十年来在人工智能和深度学习方面的开创性工作而获得2018年图灵奖。2023年5月,在谷歌工作了10年之后,他辞去了副总裁兼工程研究员的职位,这样他就可以自由地谈论人工智能带来的风险。
Hinton说,人类,包括像他这样帮助构建当今人工智能系统的科学家,仍然没有完全理解这项技术是如何工作和发展的。许多人工智能研究人员坦率地承认缺乏理解:2023年4月,谷歌首席执行官Sundar Pichai将其称为人工智能的“黑匣子”问题。
正如Hinton所描述的,科学家为人工智能系统设计算法,从数据集中提取信息,比如互联网。他说:“当这种学习算法与数据交互时,它会产生擅长做事的复杂神经网络。”“但我们并不真正了解它们是如何做到这些的。”
Pichai和其他人工智能专家似乎并不像Hinton那样担心人类失去控制。另一位图灵奖得主、也被认为是“人工智能教父”的Yann LeCun称,任何有关人工智能可能取代人类的警告都是“荒谬可笑的”——因为人类总是可以阻止任何变得过于危险的技术。
Hinton强调,最坏的情况并不确定,医疗保健等行业已经从人工智能中受益匪浅。
Hinton还指出,人工智能增强的错误信息、假照片和视频在网上传播。他呼吁进行更多的研究来了解人工智能,政府法规来控制这项技术,并在全球范围内禁止人工智能军用机器人。
在2023年10月的国会会议上,Pichai、Elon Musk、OpenAI的Sam Altman和Meta的Mark Zuckerberg等议员和科技高管在讨论平衡监管与创新友好型政府政策的必要性时,提出了类似的想法。
Hinton说,无论人工智能护栏是由科技公司还是在美国联邦政府的强制要求下实施的,都需要尽快实施。
Hinton说,人类可能正处于“某种转折点”,并补充说,科技和政府领导人必须决定“是否进一步发展这些东西,以及如果他们(这样做)该如何保护自己。”
Hinton说:“我想我要传达的主要信息是,接下来会发生什么存在巨大的不确定性。”
本文转载自 雪兽软件
更多精彩推荐请访问 雪兽软件官网
领取专属 10元无门槛券
私享最新 技术干货