哥伦比亚大学的一对研究人员最近建立了一个自我复制的AI系统。随着它变得更加先进 - 而不是创建神经网络的层次并引导它的发展 - 他们已经使过程自动化了。
研究人员Oscar Chang和Hod Lipson在本月早些时候发布了题为“神经网络” 的论文,并为其提供了一种“增长”神经网络的新方法。
Chang告诉The Register关于创建AI演变背后的团队理由:
这里的主要动机是人工智能代理是由深度学习驱动的,并且自我复制机制允许达尔文自然选择发生,因此人工智能代理人群可以通过自然选择简单地改善自己,就像自然界一样。
Lipson和Chang使用的方法依靠自然选择技术,通过使用AI最大的优势之一:预测模式。
神经网络比较不同层的数据以确定相似或不相似的东西,从而形成模式。网络中的各种组成部分,代理商都执行特定的任务 - 例如在一堆600万张图像中查找猫的所有图像,或试图复制人类艺术风格。
这些网络可以通过多种不同的方式进行改进,包括让两个代理进行对抗,或者用个体代理接近任务的不同方面,然后结合每个收集的“知识”来进行。在各种迭代中,这样的神经网络会变得更好。
但是利用李普森和Zhang所创建的奎因系统,神经网络通过预测未来学习新信息后和开发新版本的代理来改进。
最终,一个可以预测其自身增长的神经网络可能会形成一个AI系统,该系统可以对删除或缩减做出回应。从理论上讲,人类可以尝试删除特定组件或删除整个程序,但可能存储在安全云中的小代码片段可能会使整个系统立即恢复联机。
因为它需要额外的资源来自我复制并创建一个更好的版本,所以AI在完成任务方面比传统的神经网络方法更不成功。
如果只有名义数量上的“演变”或花在尝试特定任务上的迭代完成后,图像识别等任务的准确率可达到接近100%,那么在相同尝试次数后,自我复制模型至少会降低10%。
这意味着在这种神经网络可以执行之前还有很多工作要做。
理解这种新方法的全部含义可能为时尚早。我们在Google的DeepMind部门看到类似的东西,教人工智能如何创建比人们更好的算法。但这是第一次:用另一个目的(在这种情况下为图像识别)设计的神经网络已经建立了自我复制机制。
这项研究仍处于早期阶段,但未来的迭代将包括可以使用相同的自我复制技术重新创建其他的神经网络。
领取专属 10元无门槛券
私享最新 技术干货