赛题背景
在自然语言理解中,自然语言推理(Nature Language Inference,NLI)
被认为是一个非常基础但重要的研究任务。它要求机器去理解自然语言的深层次语义信息,进而做出合理的推理。更具体的推理任务,则是判断句子关系,即对于给定的两个句子,判断它们含义是否一致。
在上述背景之下,搜狐发起并主办 “2021搜狐校园算法大赛”,有针对性地设置30万条数据,总奖金池6.5万元。
赛题任务
本次比赛的数据均来自人工标注,数据均为文字片段,每两个片段为一组,参赛选手需要为每对文本在两个颗粒度上判断文本对中的两段文字是否匹配。其中,一个颗粒度较为宽泛,两段文字属于一个话题即可视为匹配;另一个颗粒度较为严格,两段文字必须是同一事件才视为匹配。
赛题数据
本次比赛初赛预计涉及18万条数据,复赛预计涉及3万条数据,决赛预计涉及9万条数据,数据格式为json。
参赛选手需要正确判断两段文字是否匹配,数据分为A和B两个文件,A和B文件匹配标准不一样。
文件内,source
为第一段文字 ,target
第二段文字 ,labelA
为A文件中匹配情况,labelB
为B文件中匹配情况,“0”表示不匹配,“1”表示匹配。
{
"source": "英国伦敦,20/21赛季英超第20轮,托特纳姆热刺VS利物浦。热刺本赛季18轮联赛是9胜6平3负,目前积33分排名联赛第5位。利物浦本赛季19轮联赛是9胜7平3负,目前积34分排名联赛第4位。从目前的走势来看,本场比赛从热刺的角度来讲,是非常被动的。最终,本场比赛的比分为托特纳姆热刺1-3利",
"target": " 北京时间1月29日凌晨4时,英超联赛第20轮迎来一场强强对话,热刺坐镇主场迎战利物浦。 热刺vs利物浦,比赛看点如下: 第一:热刺能否成功复仇?双方首回合,热刺客场1-2被利物浦绝杀,赛后穆里尼奥称最好的球队输了,本轮热刺主场迎战利物浦,借着红军5轮不胜的低迷状态,能否成功复仇? 第二:利物浦近",
"labelA": "1"
}
评测方法
本次评测任务采用macro F1方法,即对A、B两个文件的label分别计算F1值然后求平均,为最终得分。
优胜方案
https://github.com/zzy99/competition-solutions
短文本进行填充,长文本进行截断(长文本的信息主要集中在首部),这样统一了短短、短长、长长任务;让labelA和labelB的数据共享同一个模型参数,混合进行多任务训练,彼此协同提升性能。
其他上分操作:
https://github.com/CQUPT-GML/2021Sohu_Text_Matching
Model使用NEZHA-base做的单模单折,修改了LayerNorm的结构,调整了均值和方差。
数据处理上我们尝试了以下方法:
对模型有以下模型修改:
特征工程包括如下:
https://github.com/KKenny0/sohu2021
为了从数据中学习到尽可能多的信息,同时又兼顾 A、B 以及三种小分类标准,我们的方案基于多任务学习的框架,共享一部分参数来进行表示学习,再设计任务特定的分类器来进行标签预测。
框架设计基于 BERT 的交互模型,通过 BERT 来得到 source-target pair 的向量表示。本方案的整体结构如下图所示:
在本方案中使用最后 3 层的结果来进行下游任务的学习。此外,针对此次比赛可划分为 6 个子任务的特点,我们引入了 Special Tokens 的概念。
[<S>]、[</S>]
和[<T>]、[</T>]
来分别区分 source 和 target。(相应的 special tokens 已经添加到 models/* 下所给的 vocab.txt 文件中)为了更好地学习Type Token
的表示,并辅助Task-Attentive Classifier
的学习,我们提出了数据类型标签预测任务,即根据Type Token
的表示来判断当前输入属于哪种任务类型。
本着“和而不同”的思想,A、B 两个任务各独立使用一个的Task-Attentive Classifier
,同时将 Type Token 的表示作为额外的条件信息传入Classifier
进行 attention 计算,以获得 type-specific 的特征进行标签预测。
模型 | 链接 |
---|---|
BERT-wwm-ext | https://github.com/ymcui/Chinese-BERT-wwm |
RoBERTa-wwm-ext | https://github.com/ymcui/Chinese-BERT-wwm |
WoBERT | https://github.com/ZhuiyiTechnology/WoBERT |
本次开源的方案从数据划分、模型结构和模型融合三个方面对复赛提交方案进行改进。
Task-specific encoding
的方式。BERT-wwm-ext
和ERNIE-1.0
进行模型融合。此方案则使用BERT-wwm-ext
、RoBERTa-wwm-ext
和WoBERT
进行融合。参考资料
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有