图数据无处不在,针对图算法的鲁棒性最近是个研究热点。来自Lehigh大学的研究人员在TKDE2022发布的《图数据对抗攻击与防御》,提供了100多篇关于图数据对抗攻防策略的论文的总体概况,并建立一个涵盖大多数图对抗学习模型的统一表述。
深度神经网络(DNNs)已广泛应用于图像分类、文本生成、音频识别和图数据分析等各个领域。然而,最近的研究表明,DNN很容易受到对抗性攻击。虽然在图像和自然语言处理等领域已经有了一些关于对抗性攻防策略的研究,但由于图数据的表示结构,仍然很难将学到的知识直接转化为图数据。鉴于图分析的重要性,在过去几年里,越来越多的研究试图分析机器学习模型对图数据的鲁棒性。然而,现有的研究考虑了图数据上的对抗行为,通常只关注特定类型的攻击,并带有特定的假设。此外,每一项工作都提出了自己的数学公式,这使得不同方法之间的比较很困难。因此,本综述旨在提供100多篇关于图数据对抗攻防策略的论文的总体概况,并建立一个涵盖大多数图对抗学习模型的统一表述。此外,我们还比较了不同的图攻击和防御及其贡献和局限性,并总结了评估指标、数据集和未来趋势。我们希望本次综述能够帮助填补文献空白,促进这一有前景的新领域的进一步发展。
https://www.zhuanzhi.ai/paper/29e1c75f455f6a20abadc48f86f43f06
1. 概述
近年来,深度神经网络(DNNs)在多个领域取得了显著的成功,从图像识别[55],自然语言处理[37],图数据应用[54],[69],[117],[118],[138],到医疗保健分析[90],脑电路建模[78]和基因突变功能[143]。深度学习具有优越的性能,已被应用于自动驾驶[9]、恶意软件检测[106]、身份识别[107]和异常检测[42]等多个安全和安全关键任务。然而,DNNs缺乏可解释性和鲁棒性,使其容易受到对抗性攻击。Szegedy等[111]指出了DNNs在图像分类中的敏感性。一个训练良好的DNN的性能可以被对抗性例子显著降低,这些例子是经过精心设计的输入,并添加了小幅度的扰动。Goodfellow等人[51]分析了这一现象,提出了一种基于梯度的方法(FGSM)来生成对抗图像样本。然后提出了不同的对抗攻击策略,以演示DNNs在各种设置[8],[19],[142]中的漏洞。例如,黑盒对抗攻击后来基于可移植性[81],[93]和来自DNN模型[5],[16]的查询反馈进行了探索。一些防御和检测方法也被采用来减轻这种对抗行为[86],[102],而各种自适应攻击继续被提出,表明一般来说检测/防御是困难的[3],[18]。
虽然对抗性攻防的研究越来越多,但目前的研究主要集中在图像、自然语言和语音领域。尽管图数据在许多实际应用中很重要,但对图数据的研究工作仍处于初级阶段。例如,在信用预测应用中,对手很容易通过与他人增加友谊连接来伪装自己,这可能会造成严重的后果[33]。与非图数据相比,图数据的对抗分析有几个独特的挑战:1)与像素值连续的图像数据不同,图结构是离散值的。在离散空间中设计一种有效的生成对抗例的算法是很困难的。2)对抗性扰动被设计成在图像域中人类无法察觉的,因此可以强制一个特定的距离函数,例如对抗性和良性实例之间的p范数距离要小。然而,在图数据中,如何定义“不可感知的”或“细微的扰动”需要进一步的分析、测量和研究。
鉴于图在大数据背景下应用的重要性以及图神经网络(GNNs)的成功使用,GNNs的鲁棒性吸引了学术界和工业界的极大兴趣。近年来,人们对一组GNN模型的对抗性攻击和防御进行了很多研究。本文的目的是对现有的关于图数据的对抗学习文献进行综合分类,开发一个框架来统一大多数现有的方法,并探索未来的趋势。所有相关的攻击和防御研究都列在表3和表4中,主要基于任务、策略、基线、评估指标和数据集。尽管在过去三年中发表了100多篇论文,但到目前为止仍有一些挑战没有得到解决,我们在此贡献总结和介绍如下。
本综述的其余部分组织如下:第2节提供了图数据和常见应用的必要背景信息。第3节给出了统一的问题表述,并讨论了现有的针对图数据的对抗攻击工作。第四节讨论了现有的图形数据防御工作。第5节总结了不同研究中使用的评估和攻击指标。第6节描述了每个数据集的详细信息,并总结了跨数据集的现有工作。最后一节是本文的总结。
2. 图数据的对抗性攻击
在本节中,我们给出了图数据对抗性攻击的一般定义和分类,然后介绍了不可感知度量、攻击类型、攻击任务和攻击知识级别。
3. 图数据的对抗性防御
近年来,针对对抗攻击的密集研究也引发了对抗防御的研究。在这里,我们调研了这方面的现有工作,并将它们分为两个流行的类别: 对抗性训练和攻击检测。在它们之后,我们使用额外的“其他方法”小节来总结其余不属于这两个一般类别的方法。