前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >图插值激活提高数据高效深度学习的自然精度和鲁棒精度

图插值激活提高数据高效深度学习的自然精度和鲁棒精度

原创
作者头像
Jarvis Cocker
发布于 2019-07-17 07:47:46
发布于 2019-07-17 07:47:46
6140
举报

原文标题:Graph Interpolating Activation Improves Both Natural and Robust Accuracies in Data-Efficient Deep Learning

摘要:提高深度神经网络(DNNs)的准确性和鲁棒性,并使其适应较小的训练数据,是深度学习研究的主要任务。本文用一个基于拉普拉斯图的高维插值函数代替DNNS的输出激活函数(典型的数据无关的Softmax函数),该函数在连续极限下收敛于高维流形上的Laplace-Beltrami方程的解。此外,我们还提出了这种新架构的端到端训练和测试算法.该DNN融合了深度学习和流形学习的优点。与传统的以Softmax函数作为输出激活的DNN相比,该框架具有以下主要优点:第一,它更适用于不使用大量训练数据而训练高容量DNN的数据高效学习。第二,它显着地提高了清洁图像的自然准确性和对抗性图像的鲁棒准确性,这两种图像都是由白盒和黑盒对抗性攻击构建的。第三,对于可再现性,它是半监督学习的自然选择。

地址: https://arxiv.org/abs/1907.06800

作者: Bao Wang, Stanley J. Osher

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Arxiv机器学习论文摘要10篇(2019-7-17)
原文标题:Two-stage Optimization for Machine Learning Workflow
Jarvis Cocker
2019/07/17
1.2K0
学界 | 精准防御对抗性攻击,清华大学提出对抗正则化训练方法DeepDefense
选自arXiv 作者:Ziang Yan等 机器之心编译 参与:刘晓坤、黄小天 本文提出了一个名为 DeepDefense 的训练方案,其核心思想是把基于对抗性扰动的正则化项整合进分类目标函数,从而使模型可以学习直接而精确地防御对抗性攻击。在 MNIST、CIFAR-10 和 ImageNet 上的扩展实验证明了该方法可以显著提高不同深度学习模型对高强度对抗攻击的鲁棒性,同时还不会牺牲准确率。 虽然深度神经网络(DNN)在许多挑战性的计算机视觉任务中都取得了当前最优的表现,但在对抗样本(在人类感知上和真实图
机器之心
2018/05/09
1.3K0
【硬核书】机器学习对抗鲁棒性
来源:专知本文为书籍介绍,建议阅读5分钟本书介绍了对抗性攻击、防御和验证的常用算法。 机器学习的对抗性鲁棒性综述了该课题的最新进展,介绍了对抗性攻击、防御和验证的常用算法。章节涵盖了对抗性攻击、验证和防御,主要关注图像分类应用,这是对抗性鲁棒性社区考虑的标准基准。其他部分讨论了图像分类以外的对抗例子,测试时间攻击以外的其他威胁模型,以及对抗鲁棒性的应用。对于研究人员,本书提供了一个全面的文献综述,总结了该领域的最新进展,可以作为一个很好的参考,进行未来的研究。此外,本书还可以作为研究生课程的教材,讲授对抗
数据派THU
2022/09/23
6720
【硬核书】机器学习对抗鲁棒性
TKDE'22 图对抗学习有何进展?
深度神经网络(DNNs)已广泛应用于图像分类、文本生成、音频识别和图数据分析等各个领域。然而,最近的研究表明,DNN很容易受到对抗性攻击。虽然在图像和自然语言处理等领域已经有了一些关于对抗性攻防策略的研究,但由于图数据的表示结构,仍然很难将学到的知识直接转化为图数据。鉴于图分析的重要性,在过去几年里,越来越多的研究试图分析机器学习模型对图数据的鲁棒性。然而,现有的研究考虑了图数据上的对抗行为,通常只关注特定类型的攻击,并带有特定的假设。此外,每一项工作都提出了自己的数学公式,这使得不同方法之间的比较很困难。因此,本综述旨在提供100多篇关于图数据对抗攻防策略的论文的总体概况,并建立一个涵盖大多数图对抗学习模型的统一表述。此外,我们还比较了不同的图攻击和防御及其贡献和局限性,并总结了评估指标、数据集和未来趋势。我们希望本次综述能够帮助填补文献空白,促进这一有前景的新领域的进一步发展。
Houye
2023/02/26
3210
TKDE'22 图对抗学习有何进展?
低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法
在深度神经网络时代,深度神经网络(DNNs)在视觉分类任务中展现出了卓越的准确性。然而,它们对额外噪声,即对抗性攻击,表现出了脆弱性。先前的研究假设这种脆弱性可能源于高准确度的深度网络过度依赖于与纹理和背景等无关紧要且不鲁棒的特征。
新智元
2024/04/12
1740
低成本算法,大幅提升视觉分类鲁棒性!悉尼大学华人团队发布全新EdgeNet方法
如何从频域的角度解释CNN(卷积神经网络)?
时域卷积=频域乘积,卷积神经网络大部分的计算也在卷积部分,如何从频域的角度思考卷积神经网络,如何从频域的角度解释ResNet。
abs_zero
2020/11/11
1.3K0
如何从频域的角度解释CNN(卷积神经网络)?
DVERGE:通过“缺陷”多样化构建鲁棒集成模型 | 杨幻睿本人解读
本文是AI科技评论今日(10月20日)头条推文《14岁考入清华,22岁博士四年级,杜克大学杨幻睿的AI成长之路》的主人公杜克大学博士生杨幻睿对他这次NeurIPS 2020 Oral 论文的亲自解读。
AI科技评论
2020/11/06
7460
DVERGE:通过“缺陷”多样化构建鲁棒集成模型 | 杨幻睿本人解读
深度学习中的问题与解决方法
嗨,各位小伙伴们!😊 在这篇博客中,我将深入研究深度学习中一个老生常谈的问题——大模型的「幻觉」问题。通过对该问题的深度分析,我们将探讨幻觉产生的原因,并分享一些解决方法和对大模型技术未来的展望。让我们一起揭开深度学习中的神秘面纱吧!🚀
默 语
2024/11/20
780
【KAUST博士论文】面向3D理解的鲁棒深度学习模型设计
来源:专知本文为论文介绍,建议阅读5分钟这篇论文提出了一些新颖的方法,用于解决深度神经网络(DNNs)在3D理解和3D设置方面的鲁棒性面临的重要挑战。 这篇论文提出了一些新颖的方法,用于解决深度神经网络(DNNs)在3D理解和3D设置方面的鲁棒性面临的重要挑战。我们的研究主要集中在两个方面:3D数据和设置的对抗鲁棒性以及DNNs在现实3D场景下的鲁棒性。一个3D理解范式是将3D表示为一组3D点,并直接在这组点上学习函数。我们的第一个工作,AdvPC,解决了当前3D点云对抗攻击的有限可迁移性和防御易用性问题
数据派THU
2023/05/11
2180
【KAUST博士论文】面向3D理解的鲁棒深度学习模型设计
独家 | 如何解决深度学习泛化理论
作者:Dmytrii S. 翻译:陈之炎 校对:卢苗苗 本文与大家讨论深度学习泛化理论中的一些经验并试图对它做出解释。 我们可以从最新的关于深度学习“炼金术”的悖论研究中了解一二。 动机 深度学习目前正被用于方方面面。但是,人们经常批评它缺乏一个基础理论,能够完全解释其为什么能如此神奇。最近,神经信息处理系统大会(NIPS)的时间测试奖(Test-of-Time)得主将深度学习比作“炼金术”。 尽管解释深度学习泛化理论仍然是一个悬而未决的问题,在这篇文章中,我们将讨论这个领域最新的理论和先进的经验,并试
数据派THU
2018/03/20
1.1K0
独家 | 如何解决深度学习泛化理论
对抗鲁棒分类器神经网络画风迁移
我最近读了一篇有趣的文章,文章的题目是《对抗性的例子不是bug,而是特性》,这篇文章内容是关于一种截然不同的方式来看待对抗性的例子(1)。您可以点击文章底部原文链接,在网站文章中阅读此篇内容。
AiTechYun
2019/07/05
5040
对抗鲁棒分类器神经网络画风迁移
微软ALUM:当语言模型遇到对抗训练
本文把对抗训练用到了预训练和微调两个阶段,对抗训练的方法是针对embedding space,通过最大化对抗损失、最小化模型损失的方式进行对抗,在下游任务上取得了一致的效果提升。
NewBeeNLP
2020/11/09
8640
微软ALUM:当语言模型遇到对抗训练
学界 | 清华朱军团队探索DNN内部架构,采用对抗性例子监督网络生成及错误
AI科技评论了解到,近期清华信息科学与技术联合实验室,智能技术与系统国家重点实验室,生物启发计算研究中心和清华大学计算机科学技术学院联合发表的论文《使用对抗性例子提高深度神经网络性能》,探索了深度神经网络的内部架构,并提出了一种方法使人类可以监督网络的生成和网络发生错误的位置。 作者包括 Dong Yingpeng, Hang Su,Jun Zhu和Fan Bao。 论文链接:https://arxiv.org/pdf/1708.05493.pdf,AI科技评论编译。 深度神经网络(DNNs)在很多领域中都
AI科技评论
2018/03/13
7110
学界 | 清华朱军团队探索DNN内部架构,采用对抗性例子监督网络生成及错误
敲重点!一文详解解决对抗性样本问题的新方法——L2正则化法
【导读】许多研究已经证明深度神经网络容易受到对抗性样本现象(adversarial example phenomenon)的影响:到目前为止测试的所有模型都可以通过图像的微小扰动使其分类显著改变。为了解决这个问题研究人员也在不断探索新方法,L2 正则化也被引入作为一种新技术。本文中人工智能头条将从基本问题——线性分类问题开始给大家介绍解决对抗性样本现象的一些新视角。
用户1737318
2018/07/23
1.3K0
敲重点!一文详解解决对抗性样本问题的新方法——L2正则化法
深度学习中,面对不可知攻击,如何才能做到防御「有的放矢」?
近年来,深度学习(Deep Learning,DL)技术取得了突飞猛进的发展,在一些人工智能任务(如图像分类、语音识别等)中取得了突破。互联网巨头,如谷歌、Facebook 和亚马逊,都在提供由 DL 驱动的服务和产品方面进行了大量投资[1]。然而,高度非线性、非凸函数建模的深度神经网络(Deep neural networks,DNNs)本质上非常容易受到对抗性输入(Adversarial inputs)的影响。对抗性输入是由对手(攻击者)设计的恶意样本,目的是触发 DNNs 的不当行为。
机器之心
2022/01/20
8900
深度学习中,面对不可知攻击,如何才能做到防御「有的放矢」?
一种产生DSN放大攻击的深度学习技术
编辑 | 萝卜皮 近年来,深度学习已证明自己是网络安全中非常有价值的工具,因为它可以帮助网络入侵检测系统对攻击进行分类并检测新攻击。对抗性学习是利用机器学习生成一组受扰动的输入,然后馈送到神经网络以对其进行错误分类的过程。目前对抗性学习领域的大部分工作都是在图像处理和自然语言处理中使用各种算法进行的。 Citadel 的研究人员最近开发了一种深度神经网络(DNNs),可以检测一种称为分布式拒绝服务(DDoS)DNS 放大的网络攻击,然后使用两种不同的算法生成可以欺骗 DNN 的对抗性示例。 该研究以「A D
机器之心
2022/10/10
5720
一种产生DSN放大攻击的深度学习技术
CVPR 2020 Oral | 将SOTA行人再识别系统精度降至1.4%,中大、暗物智能等向视觉模式匹配的鲁棒性发起挑战
行人再识别(re-ID)——一种个人身份鉴别技术和继人脸识别之后的又一重要算法,随着深度学习的发展进入了一个新时代。在 Market-1501 上,各大公司玩命刷榜,甚至达到了超人类的识别水平。
机器之心
2020/05/19
6860
CVPR 2020 Oral | 将SOTA行人再识别系统精度降至1.4%,中大、暗物智能等向视觉模式匹配的鲁棒性发起挑战
物理攻击「损害」深度学习系统,CV、语音领域如何防御?
机器之心分析师网络 作者:Jiying 编辑:H4O  本文结合三篇最新的论文具体讨论计算机视觉领域中的物理攻击及检测方法,包括视觉领域和音频领域。 0、引言 对抗性攻击的概念首先由 Goodfellow 等人提出 [6],近年来,这一问题引起了越来越多研究人员的关注,对抗性攻击的方法也逐渐从算法领域进入到物理世界,出现了物理对抗性攻击。文献[1] 中首次提出了利用掩模方法将对抗性扰动集中到一个小区域,并对带有涂鸦的真实交通标志实施物理攻击。与基于噪声的对抗性攻击相比,物理攻击降低了攻击难度,进一步损害了
机器之心
2022/04/06
9550
物理攻击「损害」深度学习系统,CV、语音领域如何防御?
深度学习模型的可靠性研究(综述)
在大数据时代下,深度学习理论和技术取得的突破性进展,为人工智能提供了数据和算法层面的强有力 支撑,同时促进了深度学习的规模化和产业化发展.然而,尽管深度学习模型在现实应用中有着出色的表现,但 其本身仍然面临着诸多的安全威胁.为了构建安全可靠的深度学习系统,消除深度学习模型在实际部署应用中的潜在安全风险,深度学习模型鲁棒性分析问题吸引了学术界和工业界的广泛关注,一大批学者分别从精确和近似的角度对深度学习模型鲁棒性(Robustness,亦称稳健性、可靠性)问题进行了深入的研究,并且提出了一系列的模型鲁棒性量化分析方法。
算法进阶
2023/08/28
6990
深度学习模型的可靠性研究(综述)
Google AI再定义设备端机器学习,DNNs智能手机端实现实时运行 | AI一周学术
呜啦啦啦啦啦啦啦大家好,拖更的AIScholar Weekly栏目又和大家见面啦!
大数据文摘
2019/05/17
4670
Google AI再定义设备端机器学习,DNNs智能手机端实现实时运行 | AI一周学术
推荐阅读
相关推荐
Arxiv机器学习论文摘要10篇(2019-7-17)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文