首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

《跨语言大模型》最新综述

跨语言大模型(MLLMs)能够利用强大的大型语言模型处理和回应多种语言的查询,在多语言自然语言处理任务中取得了显著的成功。尽管取得了这些突破,但仍然缺乏一份全面的调查总结该领域现有方法和最新发展。因此,在本文中,我们进行了深入的综述,并提供了一个统一的视角,总结了多语言大型语言模型领域的最新进展和新兴趋势。本文的贡献可以总结如下:(1)首次综述:据我们所知,我们首次按照多语言对齐的方式对MLLMs研究领域进行了深入综述;(2)新分类法:我们提供了一个新的统一视角,总结了MLLMs的当前进展;(3)前沿与挑战:我们重点介绍了几个新兴领域并讨论了相应的挑战;(4)丰富资源:我们收集了丰富的开源资源,包括相关论文、数据语料库和排行榜。我们希望我们的工作能够推动MLLMs领域的突破性研究。

01
您找到你想要的搜索结果了吗?
是的
没有找到

基于神经标签搜索,中科院&微软亚研零样本多语言抽取式摘要入选ACL 2022

来源:机器之心本文约2500字,建议阅读5分钟本文介绍了基于神经标签搜索情况下,中科院和微软亚研的实验进展。 这项研究旨在解决零样本下法语、德语、西班牙语、俄语和土耳其语等多语种的抽取式摘要任务,并在多语言摘要数据集 MLSUM 上大幅提升了基线模型的分数。 抽取式文本摘要目前在英文上已经取得了很好的性能,这主要得益于大规模预训练语言模型和丰富的标注语料。但是对于其他小语种语言,目前很难得到大规模的标注数据。 中国科学院信息工程研究所和微软亚洲研究院联合提出一种是基于 Zero-Shot 的多语言抽取式文本

02

基于神经标签搜索,中科院&微软亚研零样本多语言抽取式摘要入选ACL 2022

机器之心专栏 机器之心编辑部 这项研究旨在解决零样本下法语、德语、西班牙语、俄语和土耳其语等多语种的抽取式摘要任务,并在多语言摘要数据集 MLSUM 上大幅提升了基线模型的分数。 抽取式文本摘要目前在英文上已经取得了很好的性能,这主要得益于大规模预训练语言模型和丰富的标注语料。但是对于其他小语种语言,目前很难得到大规模的标注数据。 中国科学院信息工程研究所和微软亚洲研究院联合提出一种是基于 Zero-Shot 的多语言抽取式文本摘要模型。具体方法是使用在英文上预训练好的抽取式文本摘要模型来在其他低资源语言上

02
领券