近日,哥本哈根大学的研究人员在计算机科学基础大会(FOCS,计算机领域最高级国际会议之一)上首次用数学方法证明,在各种基础问题之外,针对复杂问题不可能开发出始终稳定的人工智能算法。
01
从直觉到数学
作为理论计算机科学家他们主要研究了机器学习中算法的稳定性和可复制性。讨论了全局稳定性不能被任意增强,也就是说全局稳定性只能以弱方式实现,而可重复性的概率只能接近1,无法达到1。研究结果指出了人工智能的局限性,似乎宣判了我们也许永远无法研究出完全安全的自动驾驶系统或制造出绝对不会出错的智能医生。
我们凭直觉就能理解这项理论,现实生活中存在着各种各样的噪音,人类习惯于忽略这些噪音,而机器却会感到困惑。
例如,自动驾驶汽车需要正确读取路标。如果有人在路标上贴了一些普通或特制的贴纸,通常这不会影响人类驾驶员的判断。但机器可能会出错,因为贴纸路标与它接受过训练的路标不同。
作为理论计算机科学家,他们证明由于复杂问题中普遍存在的噪声,导致我们无法建立永远稳定的机器学习算法。当然科学家不仅会指出问题,还能解决问题,他们用数学语言去评估某种算法的稳定性,以确定算法能够承受多少噪声,在受到定量噪声影响下输出的结果是否符合预期。
02
AI的鲁棒性
鲁棒是Robust的音译,是强壮的意思。在计算机领域专指软件在遇到输入错误、硬件故障或有意攻击情况下,不死机、不崩溃的性能。其实人工智能算法输出结果不稳定(鲁棒性低)这一结论早已有之。
关于噪声经典的例子是,在how are you的语音里加入一点“噪声”,就会被AI识别成open the door。在熊猫的图片里加入一点“白噪声”,就会被识别成长臂猿。有人专门针对AI人脸识别程序或人体识别程序制作了“隐身贴纸”,把它贴在身上安全摄像头就不会认为有人从镜头前走过了。
在how are you里加入一点“噪声”,就会被AI识别成open the door
熊猫+白噪声=长臂猿
比利时鲁汶大学研究出的“隐身贴纸”,贴上后不会触发人体警报
03
专找弱点的语言
这篇研究引起了计算机理论科学领域同行的极大兴趣,但在科技行业中却没翻出什么浪花。“你总是应该预料到,在新的理论发展和应用人员的兴趣之间会有一些延迟。”该小组负责人阿米尔·耶胡达约夫(Amir Yehudayoff)笑着补充道“一些理论发展将永远不会被关注到。”
这项研究的成果有助于开发出一种专门寻找机器学习算法弱点的语言或为推出算法测试协议铺平道路。如果用这种语言来测试算法,就可以帮助我们开发出更好更稳定的人工智能算法。
虽然数学证明无法用机器学习的方法研究出完全可靠的自动驾驶系统,但这并不会对自动驾驶的汽车的发展造成重大影响,因为相信计算机不会出错本就是大众对计算机的错误认识,只要保证自动驾驶只在极少数情况下才会出错,厂商就不会改变。
邮发代号:77-19
单价:8元,年价:408元
编辑|张毅
审核|吴新
领取专属 10元无门槛券
私享最新 技术干货