首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

【IEEE Spectrum】神经网络视觉分类算法的意外弱点

【新智元导读】以往的对抗攻击需要进行复杂的数据处理,但最近华盛顿大学、密歇根大学、石溪大学和加州大学伯克利分校的一组研究人员发表了一篇文章,表明在物理世界中进行轻微的改变,也能诱骗视觉分类算法。通完自动驾驶安全之路,或许是完全排除人类因素。 人类非常难以理解机器人是如何“看”世界的。机器的摄像头像我们的眼睛一样工作,但在摄像头拍摄的图像和对于这些图像能够处理的信息之间的空间里,充满了黑盒机器学习算法。训练这些算法通常包括向机器显示一组不同的图像(比如停止标志),然后看看机器能否从这些图片中提取足够的常见特征

013

自带迷幻剂技能的小贴纸:忽悠神经网络,让它将一切都当作烤面包机!

大数据文摘作品 编译:Katrine.Ren、元元 当下的图像识别技术看似愈发成熟了,但自带蠢萌属性的它实际上依然可以被轻易愚弄。 研究人员最近就成功忽悠了一把以智能著称的算法,让它们一脸懵逼地犯下了一系列错误: 比如把两个滑雪的人辨识为一只狗,把一个棒球看成是一杯意式咖啡,又例如把一只乌龟误认为是一把步枪。 最新的一个欺骗机器的方法操作更为简单,却有更深远的影响,所需要的道具也仅仅是一张简陋的贴纸而已。 图注按顺序为:将贴纸放在桌上,输入分类器的图像,分类器输出结果 这款由谷歌的研究人员新近开发的自带迷幻

03

学界 | Ian Goodfellow最新论文:是猫还是狗?不光神经网络识别不了,你也能被忽悠

大数据文摘作品 作者:小鱼、龙牧雪 上面这张图里,是猫还是狗?再好好想想,你能肯定吗? 根据胡子、鼻子较短判断,左边的似乎是猫。但是再看看右边,这明显是只狼狗吧(诡异的戴着蝴蝶结的狼狗orz)。但是这明明是一张图啊?怎么回事? 都是深度学习搞的鬼。 这是Ian Goodfellow大神2月22号最新论文里的成果。对抗性干扰,既能骗过神经网络,也能骗过人眼了。 先回忆一下我们是怎么忽悠神经网络的。 不久前,文摘菌发布过一篇关于如何利用一个小贴纸,让各大著名图像识别算法纷纷破功的文章(自带迷幻剂技能的小贴纸:忽

04
领券