记忆对机器和人类来说一样难以保存。为了帮助理解为什么人工智能在自己的认知过程中会出现漏洞,俄亥俄州立大学的电气工程师分析了一个“持续学习”的过程对其整体表现的影响。
持续学习是指训练计算机不断学习一系列任务,利用其从旧任务中积累的知识来更好地学习新任务。
然而,要达到这样的高度,科学家们仍然需要克服的一个主要障碍是学习如何规避记忆丧失的机器学习过程,这一过程在人工智能代理中被称为“灾难性遗忘”。当人工神经网络在一个又一个新任务上进行训练时,它们往往会丢失从以前的任务中获得的信息,俄亥俄州著名学者、俄亥俄州立大学计算机科学与工程教授Ness Shroff表示,随着社会越来越依赖人工智能系统,这个问题可能会变得更严重。
Ness Shroff说:“研究人员发现就像人们可能很难回忆起类似场景的对比事实,但却能轻松地记住本质上不同的情况一样,当连续面对不同的任务时,人工神经网络可以更好地回忆信息,而不是共享相似特征的任务。”
该团队包括俄亥俄州立大学博士后研究员林森(音)和朱培忠(音),以及梁英斌(音)和Ness Shroff教授,将于本月在夏威夷举行的第40届国际机器学习年会上介绍他们的研究,
虽然教自主系统展示这种动态的终身学习可能很有挑战性,但拥有这种能力将使科学家能够更快地扩展机器学习算法,并轻松调整它们以应对不断变化的环境和意外情况。从本质上讲,这些系统的目标是有一天能模仿人类的学习能力。
传统的机器学习算法是在数据上同时训练的,但该团队的研究结果表明,任务相似性、负相关和正相关等因素,甚至是算法被教授任务的顺序,都与人工网络保留某些知识的时间长度有关。
例如,为了优化算法的记忆,在持续学习过程中,应该尽早教授不同的任务。这种方法扩展了网络获取新信息的能力,并提高了其后续学习更多类似任务的能力。
Ness Shroff说:“他们的工作尤其重要,因为了解机器和人脑之间的相似性可以为更深入地理解人工智能铺平道路。”
他说:“我们的工作预示着一个智能机器的新时代,它可以像人类一样学习和适应。”
领取专属 10元无门槛券
私享最新 技术干货