Seq2Seq是指一般的序列到序列的转换任务,特点是输入序列和输出序列是不对齐的,比如机器翻译、自动文摘等等。...假如原句子为X=(a,b,c,d,e,f),目标输出为Y=(P,Q,R,S,T),则Seq2Seq模型如下:
模型的工作原理如下;
Encoder部分首先通过RNN及其变种(LSTM、GRU)等进行编码...None, recurrent_constraint=None, bias_constraint=None, dropout=0.0, recurrent_dropout=0.0)
在Keras所有的RNN中,...LSTM模型分析
下图是LSTM的一个典型内部示意图,有三个门:输入门、输出门和遗忘门。...2.训练和预测使用的decoder结果不同,编写循环的预测decoder。
3.前端的word2vec词向量和最新的ElMo模型的对比实验。
4.对比不同的decoder结构对模型的影响程度。