学习目标 🍀 掌握Transformer相比于RNN/LSTM的优势和背后的原因. 🍀 掌握Transformer架构的并行化是如何进行的. 🍀 理解为什么采用这样的方式可以实现Transformer的并行化. 🍀 掌握Transformer可以替代seq2seq的核心原因.
对于Transformer比传统序列模型RNN/LSTM具备优势的第一大原因就是强大的并行计算能力.
首先Transformer的并行化主要体现在Encoder模块上.
其次Transformer的并行化也部分的体现在Decoder模块上.
对于Transformer比传统序列模型RNN/LSTM具备优势的第二大原因就是强大的特征抽取能力.
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有