首页
学习
活动
专区
圈层
工具
发布

当你使用Transformer时,张小斐告诉你:适合我们的才是最好的!

在今年的热播剧《好好事成双》中,竟然追起了Transformer的热点,编剧看来是下了功夫啊!

当甲方指责女主公司为什么没有采用当下最新最热门最强的Transformer模型,而采用了“过时的LSTM模型”时,女主是这样说服甲方的:

选择模型是不能迷信

最新最强最热门的

适合我们的才是最好的

这编剧应该是请教过业内人士研究过的哈,搞得还挺专业!

《Attention is all you need》Transformer的图例都用上了

要知道,谷歌当年的这篇论文,不仅让NLP变了天,成为自然语言领域的主流模型,还成功跨界CV等领域。

截止今日,这篇论文被引数高达9万+。

这篇论文最大的亮点就是提出了一种Transformer的结构,这种结构是完全依赖注意力机制来刻画输入和输出之间的全局依赖关系,而不使用递归运算的RNN网络了。

不过有点小瑕疵,PPT图中的LSTM写错了,方框里写的好像是LTSM模型。不过跟这几年的国产剧相比,起码算是用心不少。

今天的内容就到这里啦!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OFTWHpil1u5h3pEdtKqLEttw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。
领券