深度学习是人工智能领域中最热门的机器学习方法之一,其目的在于建立、模拟人脑进行分析学习的神经网络,然后通过模仿人脑的机制来解释数据,比如图像、声音和文本等。至于其优势,可以说,深度学习在大数据集上的表现比其他机器学习方法都要好,因为它更适合无标记数据,因而并不局限于以实体识别为主的自然语言处理(NLP)领域。
然而,深度学习也不是一项完美的技术——总部位于西雅图的艾伦人工智能研究所(Allen Institute for Artificial Intelligence)和其他研究小组、初创公司以及计算机科学家正在专注于通过人工智能的方式解决一些深度学习中存在的弱点。
在过去的五年里,人工智能领域中最热门的一个话题就是一个被称为“深度学习”的分支。简单来说,该技术为计算机提供了一种通过处理大量数据来展开学习的方法。也是因为深度学习的存在,计算机可以轻松完成人脸识别与语音识别,让其他形式的人类智能突显出来。
面对深度学习的巨大机会,一些科技巨头,如谷歌、Facebook和微软等公司已经全身心投入到深度学习中。而一些试图让深度学习解决所有问题(从癌症治疗到工业自动化)的初创企业,也随时随地在鼓吹自己在该领域的“专长”。在这种情况下,深度学习技术的感知和模式匹配(pattern-matching)能力正逐渐应用于药物发现以及自动驾驶汽车等领域。
不过,最近也有一些科学家对深度学习产生了质疑,这项技术真的这么厉害吗?
最近,不管是与AI专家的对话,还是一些关于AI的在线评论,亦或是一些长篇幅的论文,越来越多的人工智能专家都在警告称,现在对深度学习技术的过度依赖可能会被蒙住双眼,造成投资过剩,之后,随之而来的便是“美梦”破灭。
举个例子,被誉为人工智能领域“根目录”之一的美国科学院、美国工程院、美国艺术院三院院士,加州大学伯克利分校教授迈克尔·乔丹(Michael I. Jordan)在4月发表的一份文章,旨在缓解人们对人工智能的过高期待。他指出:“事实上,这项技术并不存在真正的人类智慧。在我看来过于相信这些算法是一种错误地信仰。”
除此以外,迈克尔·乔丹还表示,过去的二十年里,在工业界和学术界取得重大进展的应该是“智能增强”(IA),这通常被人们视为对“仿人AI”的一种补充。尽管报纸上不会宣扬这样一个事实,即仿人AI的成功实际上是有限的——我们距离实现仿人AI的愿望还很遥远。不幸的是,仿人AI领域一点点的进展和风吹草动都会被媒体关注和夸大,导致过的的兴奋(和恐惧),这在其他工程领域并未出现。
还有一些专家警告说,其潜在的危险在于人工智能将会遇到技术壁垒,并最终会面临反弹——这是自20世纪50年代“人工智能”一词出现后陷入的一种常见模式。研究人员表示,尤其是深度学习技术,因为这些担忧正是被技术的局限性所推动的。
深度学习算法的实现需要使用一些相关的数据(如人脸图片)进行,随着提供的数据越来越多,软件的模式匹配精确度便会越来越高。虽然就现在而言,这项技术已经取得了成功,但其结果还是主要局限于那些拥有庞大的数据集的领域,与此同时,相关任务也得到了很好的定义,比如,给图片贴标签或者将语音翻译为文本。
进一步讲,这项技术还在更为开放的智能领域——即意义,推理和常识知识方面——展开“挣扎”。虽然深度学习软件可以即时识别数以百万计的单词,但它却不能正确理解诸如“正义”,“民主”或“干涉”等概念词。
此外,研究人员已经通过实验表明,深度学习技术是很容易被愚弄的。比如,MIT的一群学生,通过实验可能3D打印的乌龟和棒球,骗过了深度学习技术,将它们分别认为了步枪和浓缩咖啡。无独有偶,来自华盛顿大学、密歇根大学、石溪大学和加州大学伯克利分校的一组学者将打印出来的一组贴纸粘在停止标志上,被认为了让车标志或者限速标志。
在今年年初发表于科学论文网站arXiv.org上的一篇文章中,纽约大学教授加里·马库斯(Gary Marcus)提出了这样一个问题:“深度学习是否接近终点?”他在文中写道:“就像我们常常看到的那样,通过‘深度学习’提取的模式比最初出现的模式更肤浅。“
如果“深度学习”是有限度的,那么现在人们就可能为之投入太多的金钱和聪明的头脑(人才),艾伦人工智能研究所首席执行官奥伦·伊佐尼(Oren Etzioni)说:“实际上,我们是在冒着失去推进人工智能领域其他重要概念和技术途径的风险,发展深度学习技术。”
在这场深度学习是否完美的辩论中,一些研究小组、初创公司和计算机科学家对用来解决深度学习不足的人工智能方法展现出了更多的兴趣。
首先,总部位于西雅图的非营利实验室艾伦人工智能研究所在今年2月份宣布,它将在未来三年投资1.25亿美元,主要用于研究教机器学习常识知识,这项计划被命名为“Project Alexandria”。
虽然对于这一方面的努力,每个公司都有不同的研究方向,但他们却有一个共同的目标——获取比深度学习技术更广泛和更灵活的AI技术。与此同时,这些技术会建立在很少的数据基础上,“深度学习”只是其中的一个要素而已。
华盛顿大学计算机科学家兼艾伦人工智能研究所的研究员Yejin Choi表示:“我们不是反对深学习,而是试图将人工智能应用于更广泛的领域。我们并没有批判这个工具的意思。”
不同于“深度学习”的新工具通常是以新方式应用的旧技术。硅谷初创公司Kyndi的计算机科学家正在用Prolog开发新的工具。Prolog是一种在20世纪70年代出现的编程语言。据了解,开发的新工具是为了人工智能的推理和知识表述而设计的,将用于处理事实和概念,并尝试完成没有明确定义的任务。
从事AI研究的资深人员本杰明·格罗索夫(Benjamin Grosof)今年五月加入Kyndi并担任该公司的首席科学家。格罗索夫表示,他对Kyndi关于“将AI两个分支联合起来的新方法”的研究印象深刻。
Kyndi的首席执行官Ryan Welsh也表示,Kyndi已经能够通过非常少的数据来接受培训,并最终达到可以自动生成事实、概念和推论的效果。目前,Kyndi系统可以用10到30份科学文件(每份文件10到50页)来进行训练。训练完成后,Kyndi的软件能识别概念,而不仅仅是文字。
在拒绝就为三家大型政府机构展开的工作时,Kyndi一直在要求其系统回答这个典型问题:技术是否已在“实验室环境中得到证实”。Welsh表示,Kyndi项目可以准确地推断出答案,即使该短语没有出现在文档中。
而且,Kyndi的阅读和评分软件工作速度很快。Welsh 称,人类分析师平均需要花费两个小时才能读完的一一个长篇科学文献,在一年内可能完成1000篇左右的阅读,而 Kyndi技术在七个小时内便可达到这一阅读数量。
可以说,Kyndi是一个不知疲倦的数字助理,可以识别出需要人类进行判断的文件和文章段落。“我们的目标是提高人类分析师的生产力,”Welsh说道。
Kyndi和其他一些人认为,就人工智能领域而言,现在是时候接受一些更艰巨的挑战了。而这与深度学习的轨迹是相呼应的——在数据爆炸之前几十年的时间里,深度学习几乎没有取得什么进展,然而现在,越来越快的计算机却推动了其所谓的“神经网络”的性能的飞跃。这些网络是松散地类似于生物神经元的数字层。“深”则指的是很多层。
Vicarious是一家开发机器人的公司,该公司旨在开发可以像人类一样迅速地从一项任务转向另一项任务的机器人。去年秋天,它在《科学》(Science)杂志上发表了一项有前景的研究成果。
Vicarious表示,其人工智能技术可以从相对较少的例子中学习,模仿人类的视觉智能,而使用的数据效率是深度学习模型的300倍。更重要的是,该系统还突破了验证码的防御功能,即在网站上进行扭曲的字母识别测试,以阻止黑客入侵。
另外,美国五角大楼的研究机构——国防高级研究计划局(DARPA)已经提出了一项名为“机器常识”(Machine Common Sense)的计划,致力于推荐大学在AI领域的研究与努力。此外,他们或许还会提供一个非商业性网络,用于分享关于模拟人类常识推理的技术来弥补深度学习的不足的想法。如果获得批准,这一计划会在今年秋天启动,最有可能运行五年,总资金约为6000万美元。
“这是一个高风险的项目,遇到的问题会比任何一家公司或研究团队都大,”DARPA官员David Gunning表示,并希望生产出与苹果Siri技术相当的产品。
前些日子,一篇名为《AI Winter is Well on its Way》的文章获得了各大科技媒体的转载,究其内容,主要表达的意思只有一个——深度学习要完了,AI寒冬要到了。实际上,反深度学习的思潮已非一日之寒,各种关于深度学习以及人工智能的泡沫在最近半年喧嚣尘上。当然,这也是不无道理的。
在小智君看来,深度学习虽然存在一定的优势,比如,具有高效率、可塑性以及普适性,单从另一方面来说,这项技术的训练成本也高、不能自主进行知识学习,当然也不善于解决某些特定的问题。有些支持深度学习观点的人认为,深度学习的特殊性让其框架可以无限增长,于是,在这种情况下,智能也就会进行不停地几何级扩张。
然而,在实践中,这显然是做不到的。首先是无限增长架构效果并不一定好,这在很多过分复杂的模型中都得到了印证;其次过于复杂的架构,同时也意味着巨大的能耗和庞大的数据需求量,这都是现在无法负担的。所以反深度学习也有一定的道理。
只能说,在AI尝试商业化的路上,势必会存在很多反对声音或者不稳定的影响因素。而从现在看,商业应用初级深度学习的技术红线,也还有非常遥远的距离去实现。
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App
领取专属 10元无门槛券
私享最新 技术干货