据站长之家消息,瑞士苏黎世大学的研究人员开发了一种名为 SwissBERT 的多语言语言模型,用于瑞士的四种官方语言。瑞士研究人员在多语言任务上面临困难,因为每种语言都需要单独的语言模型其中一种语言甚至没有独立的神经语言模型。通过微调下游任务,该模型在未来的研究和非商业用途中可能具有潜力。
分享快讯到朋友圈
领取专属 10元无门槛券
私享最新 技术干货