分享背景
对抗样本是一类被恶意设计来攻击机器学习模型的样本。它们与真实样本的区别几乎无法用肉眼分辨,但是却会导致模型进行错误的判断。对抗样本的存在会使得深度学习在安全敏感性领域的应用收到威胁,如何对其进行有效的防御是重要的研究课题。 NIPS2017 举办了一个对抗样本攻防比赛,我们提出了两个新方法,各自获得了攻击方和防守方的第一名。
分享主题
动量迭代攻击和高层引导去噪:产生和防御对抗样本的新方法
分享提纲
什么是对抗样本
传统的攻击方法
传统的防守方法
动量迭代攻击
去噪方法
高层引导去噪方法
分享人简介
廖方舟,清华大学化学系学士,生医系在读博士。研究方向为计算神经学,神经网络和计算机视觉。参加多次 Kaggle 竞赛,是 Data Science Bowl 2017 冠军,NIPS 2017 对抗样本比赛冠军。Kaggle 最高排名世界第10。
分享时间
北京时间 12 月 19 日(周二)20:00
参与方式
扫描海报二维码添加社长微信,备注「廖方舟」
上海交通大学博士讲师团队
从算法到实战应用
涵盖 CV 领域主要知识点
手把手项目演示
全程提供代码
深度剖析 CV 研究体系
轻松实战深度学习应用领域!
领取专属 10元无门槛券
私享最新 技术干货