首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >[EMNLP 2022 | 论文简读] CyCoSeg:基于掩码自编码器的检索预训练语言模型

[EMNLP 2022 | 论文简读] CyCoSeg:基于掩码自编码器的检索预训练语言模型

作者头像
智能生信
发布2022-12-29 17:33:38
发布2022-12-29 17:33:38
5460
举报
文章被收录于专栏:智能生信智能生信

简读分享 | 赵晏浠 编辑 | 陈兴民

论文题目

RetroMAE: Pre-Training Retrieval-oriented Language Models Via Masked Auto-Encoder

论文摘要

尽管预训练在许多重要的 NLP 任务中取得了进展,但仍然需要探索有效的密集检索预训练策略。在本文中,我们提出了 RetroMAE,一种基于掩码自动编码器 (MAE) 的新的面向检索的预训练范例。RetroMAE 突出了三个关键设计。1) 一种新颖的 MAE 工作流程,其中输入句子被不同掩码的编码器和解码器污染。句子嵌入是从编码器的屏蔽输入中生成的;然后,通过掩码语言建模,基于句子嵌入和解码器的掩码输入恢复原始句子。

2)非对称模型结构,以全尺寸BERT like transformer作为编码器,以一层transformer作为解码器。

3) 非对称屏蔽率,编码器比例适中:15~30%,解码器激进比例:50~70%。我们的框架易于实现且在经验上具有竞争力:预训练模型显着提高了 SOTA 在广泛的密集检索基准(如 BEIR 和 MS MARCO)上的性能。

论文链接

https://arxiv.org/abs/2205.12035

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-12-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档