首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >2017-NIPS-Attention Is All You Need

2017-NIPS-Attention Is All You Need

作者头像
hotarugali
发布2022-05-11 12:57:35
发布2022-05-11 12:57:35
3280
举报

1. 摘要

这篇文章[1]主要提出了一种新的序列转录神经网络结构:Transformer。在主流的序列转录模型中,往往都是使用编码器+解码器并配合注意力机制,Transformer 也是如此。与以前的主流序列转录模型相比,Transformer 完全没有使用 RNN 和 CNN。在两项机器翻译任务上,Transformer 显示出了强大的性能。

2. 动机

RNN 是经典的处理序列数据的模型,然而它在处理较长的序列数据时,需要一步一步计算出每一个预测数据,因此训练较为困难。同时,如果序列较长时,早期的数据可能就被丢弃而无法被使用。为了解决 RNN 的这些问题,作者借鉴了 CNN 和自注意力的想法,提出了 Transformer 架构。

3. 模型

Transformer 的模型架构如下:

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022-05-01,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 摘要
  • 2. 动机
  • 3. 模型
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档