每天给你送来NLP技术干货!
©作者 | 曾伟豪
单位 | 北京邮电大学
研究方向 | 对话摘要生成
排版 | PaperWeekly

论文名称:
Adversarial Self-Attention For Language Understanding
论文来源:
ICLR 2022
论文链接:
https://arxiv.org/pdf/2206.12608.pdf

本文提出了 Adversarial Self-Attention 机制(ASA),利用对抗训练重构 Transformer 的注意力,使模型在被污染的模型结构中得到训练。
尝试解决的问题:
为了解决上述问题,作者提出了 ASA,具有以下的优势:

表示输入的特征,在传统的对抗训练中, 通常是 token 序列或者是 token 的 embedding, 表示 ground truth. 对于由 参数化的模型,模型的预测结果可以表示为 。
对抗训练的目的是旨在通过推近经过扰动的模型预测和目标分布之间的距离来提升模型的鲁棒性:

其中 代表经过对抗扰动 扰动后的模型预测, 表示模型的目标分布。
对抗扰动 通过最大化 empirical training risk 获得:

其中 是对 做出的约束,希望在 较小的情况下给模型造成较大的扰动。上述的两个表示展示的就是对抗的过程。
定义自注意力的表达式为:

在最普通的自注意力机制中 代表全等矩阵,而之前的研究中, 代表的是用来平滑注意力结构的输出分布的一定程度的先验知识。
作者在本文将 定义为元素为 的 binary 矩阵。

ASA 的目的是掩盖模型中最脆弱的注意力单元。这些最脆弱的单元取决于模型的输入,因此对抗可以表示为由输入学习到的“meta-knowledge”:,ASA 注意力可以表示为:

与对抗训练类似,模型用来最小化如下的 divergence:

通过最大化 empirical risk 估计得到 :

其中 表示的是 的决策边界,用来防止 ASA 损害模型的训练。
考虑到 以 attention mask 的形式存在,因此更适合通过约束 masked units 的比例来约束。由于很难测量 。
的具体数值,因此将 hard constraint 转化为具有惩罚的 unconstraint:

其中 t 用来控制对抗的程度。
作者提出了 ASA 的简单且快速的实现。

对于第 自注意力层, 可以由输入的隐层状态获得。具体而言,使用线性层将隐层状态转化为 以及 ,通过点乘获得矩阵 ,再通过重参数化技巧将矩阵 binary 化。
由于对抗训练通常包括 inner maximization 以及 outer minimization 两个目标,因此至少需要两次 backward 过程。因此为了加速训练,作者采用了 Gradient Reversal Layer(GRL)将两个过程合并。
训练目标如下所示:

表示 task- specific 损失, 表示加上 ASA 对抗后的损失, 表示对于对于 的约束。


从上表可以看出,在微调方面,ASA 支持的模型始终在很大程度上超过了原始的BERT 和 RoBERTa. 可以看到,ASA 在小规模数据集比如说 STS-B,DREAM 上表现优异(一般认为这些小规模数据集上更容易过拟合)同时在更大规模的数据集上如 MNLI,QNLI 以及 QQP 上仍然有较好的提升,说明了 ASA 在提升模型泛化能力的同时能提升模型的语言表示能力。
如下表所示,ASA 在提升模型鲁棒性上具有较大的作用。

1. VS. Naive smoothing
将 ASA 与其他注意力平滑方式进行比较。

2. VS. Adversial training
将 ASA 与其他对抗训练方式进行比较

1. Why ASA improves generalization
对抗能够减弱关键词的注意力而让非关键词接受更多的注意力。ASA 阻止了模型的懒惰预测,但敦促它从被污染的线索中学习,从而提高了泛化能力。

2. Bottom layers are more vulnerable
可以看到 masking 占比随着层数由底层到高层逐渐降低,更高的 masking 占比意味着层的脆弱性更高。


本文提出了 Adversarial Self-Attention mechanism(ASA)来提高预训练语言模型的泛化性和鲁棒性。大量实验表明本文提出的方法能够在预训练和微调阶段提升模型的鲁棒性。
·
📝论文解读投稿,让你的文章被更多不同背景、不同方向的人看到,不被石沉大海,或许还能增加不少引用的呦~ 投稿加下面微信备注“投稿”即可。
最近文章
EMNLP 2022 和 COLING 2022,投哪个会议比较好?
一种全新易用的基于Word-Word关系的NER统一模型
阿里+北大 | 在梯度上做简单mask竟有如此的神奇效果
ACL'22 | 快手+中科院提出一种数据增强方法:Text Smoothing
投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。
方向有很多:机器学习、深度学习,python,情感分析意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦
整理不易,还望给个在看!