首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

开讲 | 对抗样本攻击,AI安全专家90分钟聊GAN货

刚刚我们在音频里所提到的,是一年前轰动全球的大事件: 2016年5月7号,在美国的佛罗里达州,一辆特斯拉径直撞上一辆行驶中的白色大货车,酿成了世界上自动驾驶系统的第一起致命交通事故。 照理说,特斯拉配备的是当今最顶尖的自动驾驶技术,对这里的人工智能来说,区分好一朵白云和一辆白色大货车,不该是最起码的要求吗? 事实却是,人工智能在很多地方都不如三岁的小孩,而且很容易被愚弄,黑客们也正在利用这一点。 为此,我们特地请到张重阳博士,深入来聊人工智能的安全话题。我们先来看看张博士对此的介绍。 警惕人工智能中的木

05
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    NIPS 2017 | 清华大学人工智能创新团队在AI对抗性攻防竞赛中获得冠军

    机器之心发布 清华大学人工智能创新团队 清华大学张钹院士带领的人工智能创新团队在 NIPS 2017 AI 对抗性攻防竞赛中获得冠军(指导教师:朱军、胡晓林、李建民、苏航),战胜来自斯坦福、约翰霍普金斯大学等世界著名高校在内的 100 多支代表队,在人工智能技术的鲁棒性和安全性应用方面迈出了重要一步。 以深度学习为代表的人工智能系统近年来在图像分类、目标识别等诸多任务中都获得了突破性进展,但是研究发现深度学习模型在鲁棒性上存在严重的不足,很多在特定数据集上测试性能良好的模型反而会被一些人眼不容易识别的「对抗

    09

    AI攻防算法能力几何?全新测试基准平台发布,一定要来PK下

    机器之心报道 作者:杜伟 清华大学联合阿里安全、瑞莱智慧 RealAI 等顶尖团队发布首个公平、全面的 AI 对抗攻防基准平台。AI 模型究竟是否安全,攻击和防御能力几何?只需提交至该平台,就可见能力排行。 从发展的角度来看,人工智能正在从第一代的知识驱动和第二代的数据驱动转向第三代的多元驱动,知识、数据、算法和算力成为四大因素。安全可控也成为第三代人工智能的核心发展目标,数据与算法安全成为学界和业界人士重点关注的研究主题之一。其中,在数据安全层面,数据泄露和投毒是造成数据安全风险的两个重要根源;在算法安全

    02

    苹果也坐不住了!首次公开其 AI 报告

    苹果公司近日终于不再遮遮掩掩,发布了自己的首份人工智能研究报告。业内人士称,这对苹果将来推广自己的人工智能应用大有裨益。苹果本月初曾表示,将发布自己的人工智能研究报告。不到一个月的时间,苹果就兑现了承诺。近日,苹果发布了第一份关于人工智能的学术论文。这篇报告阐述了一项新技术,即如何通过计算机生成图像、而非真实图像来训练一种算法的图像识别能力。 苹果在报告中称,在机器学习研究中,使用合成图像(例如,来自一款视频游戏)来训练神经网络要比使用真实图像更有效。因为合成图像数据已经被标记和注释,而真实的图像数据需要有

    07

    AI 技术讲座精选:OpenAI 最新成果——利用对抗样本攻击机器学习

    对抗样本是指攻击者故意设计以导致机器学习模型出错的输入样本;他们对机器来说就像是视觉幻觉一样。在本篇博文中,我们将向您展示对抗样本在不同介质中的运作原理,也将讨论为何系统难以防御它们。 在 OpenAI,我们认为对抗样本是研究安全性的一个好方面因为它代表着人工智能安全性上一个能在短期内得以解决的具体问题,由于解决对抗样本是如此之难,需要严肃认真的研究工作。(尽管为了达到我们建立安全、广泛分布的人工智能的目标,我们还需要研究机器学习安全性的许多方面。) 为了弄清楚对抗样本的真实面目,请思索一下《解释并驾驭对

    010

    天天用AI还不知道AI是怎么反馈的?一文了解生成模型常见损失函数Python代码实现+计算原理解析

    损失函数无疑是机器学习和深度学习效果验证的核心检验功能,用于评估模型预测值与实际值之间的差异。我们学习机器学习和深度学习或多或少都接触到了损失函数,但是我们缺少细致的对损失函数进行分类,或者系统的学习损失函数在不同的算法和任务中的不同的应用。因此有必要对整个损失函数体系有个比较全面的认识,方便以后我们遇到各类功能不同的损失函数有个清楚的认知,而且一般面试以及论文写作基本都会对这方面的知识涉及的非常深入。故本篇文章将结合实际Python代码实现损失函数功能,以及对整个损失函数体系进行深入了解。

    06
    领券