原文题目:Understanding Neural Machine Translation by Simplification: The Case of Encoder-free Models
摘要:本文试图通过简化NMT结构和训练无编码器NMT模型来理解神经机器翻译(NMT)。在无编码器模型中,字嵌入和位置嵌入的和表示源.译码器是一个标准的变压器或递归神经网络,直接关注嵌入通过注意机制。实验结果表明:(1)无编码器模型中的注意机制是一个很强的特征提取机制;(2)无编码器模型中的嵌入词与传统模型相比具有竞争力;(3)非上下文化的源表示导致性能下降;(4)无编码器模型对汉英两种语言的对齐质量有不同的影响。
原文作者:Gongbo Tang, Rico Sennrich, Joakim Nivre
原文地址:https://arxiv.org/abs/1907.08158
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。