RNN概述
RNN(Recurrent Neural Network)是一类用于处理序列数据的神经网络。
首先我们要明确什么是序列数据,时间序列数据是指在不同时间点上收集到的数据,这类数据反映了某一事物、现象等随时间的变化状态或程度。
这是时间序列数据的定义,当然这里也可以不是时间,比如文字序列,但总归序列数据有一个特点——后面的数据跟前面的数据有关系。
基础的神经网络只在层与层之间建立了权连接,RNN最大的不同之处就是在层之间的神经元之间也建立的权连接。如图:
循环神经网络(Recurrent Neural Network, RNN): t时刻的状态,与t-1时刻的状态和t时刻的输入有关。
其中,ℎt为t时刻的状态,xt为t时刻的输入。
请注意:fW与t无关。
可以证明若fW为三层神经网络,且状态数有限, 则RNN可以模拟GMM-HMM。
RNN可以根据输入和输出的数量关系,分为以下几类:
典型应用:大词汇连续语音识别、机器翻译
RNN做语音识别:
输入特征向量,输出对应的文字。用RNN进行Triphone的识别,在TIMIT数据集上获得了比DNN-HMM更高的识别率。
A. Graves, A. Mohamed and G. Hinton, Speech Recognition with Deep Recurrent Neural Networks, arXiv:1303.5778
典型应用:动作识别、行为识别、单词量有限的语音识别
典型应用:文本生成、图像文字标注
RNN做文本生成:
输入h、e、l、o,四个字母,期待输出hello。
训练样本为莎士比亚文本。
RNN做图像注释 (IMAGE CAPTIONING):
输入:图像,输出:描述性文字。
O. Vinyals et al. Show and tell: A neural image caption generator, arXiv: 1411.4555v1, 2014.
可以将RNN沿时间轴展开,如下:
前向计算后,将每一个时刻t的LOSS加到一起作为总的目标函数,逐级求导。
由于所有数据都求导不现实,所以实际中采用的是将RNN截断有限步,实际中只求有限步的导数
1. Bengio et al. Learning long-term dependencies with gradient descent is difficult. IEEE Transactions on Neural Networks, 1994 2. Pascanu et al, On the difficulty of training recurrent neural networks.
训练中h0获得的梯度,将是矩阵W的对应于h0的部分被乘了很多次,将会导致梯度暴涨或梯度消失。
LSTM是RNN中的一种,增加了RNN中单元的复杂度,使模型更复杂,增加系统表现力。
Hochreiter and Schmidhuber, Long Short Term Memory, Neural Computation, 1997
相比VANILLA RNN, LSTM的误差反向传播更方便和直接,梯度更新不存在RNN中的暴涨或消失现象。
LSTM用更复杂的函数代替原来的简单的函数,使模型更有表现力。同时它的误差通过c传递回去将会非常直接 。
建议涉及RNN的应用都用LSTM或LSTM相关的变种。
如果我们需要预测“the clouds are in the sky”这句话的最后一个字,我们不需要其他的信息,通过前面的语境就能知道最后一个字应该是sky。
在这种情况下,相关信息与需要该信息的位置距离较近,RNN能够学习利用以前的信息来对当前任务进行相应的操作。
假设现在有个更为复杂的任务,需要预测“I grew up in France… I speak fluent French.”中的最后一个字。
这次的有用信息与需要进行处理信息的地方之间的距离较远,这样容易导致RNN不能学习到有用的信息,最终推导的任务可能失败。
LSTM设计出来是为了解决长依赖问题。
LSTM的核心是细胞状态,用贯穿细胞的水平线表示。
细胞状态像传送带一样。它贯穿整个细胞却只有很少的分支,这样能保证信息不变的流过整个RNN。细胞状态如下图所示:
LSTM网络能通过一种被称为门的结构对细胞状态进行删除或者添加信息。门能够有选择性的决定让哪些信息通过。
其实门的结构很简单,就是一个sigmoid层和一个点乘操作的组合。如下图所示:
因为sigmoid层的输出是0-1的值,这代表有多少信息能够流过sigmoid层。0表示都不能通过,1表示都能通过。
一个LSTM里面包含三个门来控制细胞状态,这三个门分别称为忘记门、输入门和输出门。
LSTM的第一步就是决定细胞状态需要丢弃哪些信息。这部分操作是通过一个称为忘记门的sigmoid单元来处理的。
它通过查看ht-1和xt信息来输出一个0-1之间的向量,该向量里面的0-1值表示细胞状态Ct-1中的哪些信息保留或丢弃多少。
0表示不保留,1表示都保留。忘记门如下图所示:
下一步是决定给细胞状态添加哪些新的信息。这一步又分为两个步骤,首先,利用ht-1和xt通过一个称为输入门的操作来决定更新哪些信息。
然后利用ht-1和xt通过一个tanh层得到新的候选细胞信息Ct',这些信息可能会被更新到细胞信息中。这两步描述如下图所示:
下面将更新旧的细胞信息Ct-1,变为新的细胞信息Ct。
更新的规则就是通过忘记门选择忘记旧细胞信息的一部分,通过输入门选择添加候选细胞信息Ct'的一部分得到新的细胞信息Ct。更新操作如下图所示:
更新完细胞状态后需要根据输入的ht-1和xt来判断输出细胞的哪些状态特征,这里需要将输入经过一个称为输出门的sigmoid层得到判断条件。
然后将细胞状态经过tanh层得到一个-1~1之间值的向量,该向量与输出门得到的判断条件相乘就得到了最终该RNN单元的输出。该步骤如下图所示:
总结如下:
之前描述的LSTM结构是最为普通的。在实际的文章中LSTM的结构存在各种变式,虽然变化都不会太大,但是也值得一提。
其中一个很受欢迎的变式由Gers & Schmidhuber (2000)提出,它在LSTM的结构中加入了“peephole connections.”结构。
peephole connections结构的作用是允许各个门结构能够看到细胞信息,具体如下图所示:
上图描绘的是所有门都能看到细胞信息,还有一些变式是在其中的某些门引入细胞信息。
还有一种变式是在忘记门与输入门之间引入一个耦合。不同于之前的LSTM结构,忘记门和输入门是独立的。
这个变式是在忘记门删除历史信息的位置加入新的信息,在加入新信息的位置删除旧信息。该结构如下图所示:
一种比其他形式变化更为显著的LSTM变式是由 Cho, et al. (2014)提出的门循环单元(GRU)。它将忘记门和输入门合并成一个新的门,称为更新门。
GRU还有一个门称为重置门。如下图所示:
其中重置门为上图中前面那个门,决定了如何将新的输入信息与前面的记忆相结合。
更新门为上图中后面那个门,定义了前面记忆保存到当前时间步的量。
由于该变式的简单有效,后来被广泛应用。
这里介绍的只是一些较为有名的LSTM变式,关于LSTM的变式其实还有很多种,像 Yao, et al. (2015)提出的Depth Gated RNNs。
还有其他用于解决长依赖问题的方法,如由 Koutnik, et al. (2014)提出的 Clockwork RNNs。
至于哪种变式效果最好?各种差异对LSTM的影响有多少?
这些问题 Greff, et al. (2015)做了一些对比,结论是他们基本是一样的。
Jozefowicz, et al. (2015)测试了一万多种RNN结构,发现一些架构在某些任务上也取得了比 LSTM 更好的结果。