Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >开源引擎GTS乾坤鼎:自动生产模型拿下FewCLUE榜单冠军

开源引擎GTS乾坤鼎:自动生产模型拿下FewCLUE榜单冠军

作者头像
机器之心
发布于 2022-12-16 08:41:40
发布于 2022-12-16 08:41:40
6200
举报
文章被收录于专栏:机器之心机器之心

机器之心发布

机器之心编辑部

自然语言处理(NLP)领域,基于 Transformer 结构的预训练语言模型展示出了强大的语言理解能力,在各类 NLP 任务上都取得了巨大突破。

然而,在众多真实的业务场景中,有标注的数据是往往是严重稀缺的,而相关数据的获取和标注需要大量的人力和专家知识的投入。因此,小样本学习的研究已经成为业界的热点之一。

针对这一问题,IDEA 研究院认知计算与自然语言研究中心(下面简称 IDEA CCNL)研发了模型生产工具 GTS 乾坤鼎引擎以及 GTSfactory 模型自动生产平台,其基于封神榜开源模型体系,提出了首创的 GTS(Generator-Teacher-Student)训练体系,通过「用 AI 生产 AI」的方式,以自动化生产的模型在中文语言理解权威评测基准 FewCLUE 榜单上分别取得了第一名及第三名的好成绩。

FewCLUE 是中文语言理解权威评测 CLUE 的子榜,旨在探索小样本学习的最佳实践,先后吸引了包括百度、腾讯微信、美团、网易、奇点智源和浪潮人工智能研究院等工业界和学术界顶尖机构的参与。GTS 系列产品的这一次登顶,也预示着其模型自动化生产技术已经达到了顶尖的算法专家水平。

其中,GTS 乾坤鼎在 EPRSTMT(电商评论情感二分类)任务中超过了其他算法专家生产的模型,同时也刷新了 BUSTM(句子对相似度判断)任务的记录;而 GTSfactory 自动生产出的 1.1 亿参数的小模型在总分和单项任务中均接近算法专家的最好水平,这也是 FewCLUE 榜单中 TOP10 里模型参数最小的模型。

IDEA CCNL 目前已经开源 GTS 乾坤鼎(https://github.com/IDEA-CCNL/GTS-Engine),也将逐步开源 GTSfactory,让更多的人可以参与到 GTS 训练体系中来,将 IDEA-CCNL 坚持的「用 AI 生产 AI」的理念传播开来。

GTS 乾坤鼎登顶 fewCLUE,GTSfactory 达到算法专家水平

GTS 系列产品专注于研究在不同模型参数规模下的小样本 NLU 任务模型自动生产,其中,GTS 乾坤鼎引擎利用 13 亿参数规模的 Erlangshen-BERT 进行训练,而 GTSfactory 模型自动生产平台则搭建了 Generator(参数量几十亿及以上的生成模型)、Teacher(参数量 10 亿以上的大模型)及 Student(参数量 1 亿小模型)协同训练的体系,最终生产出可以落地部署的轻量级小模型。

在「GTS」训练体系的加持下,GTS 乾坤鼎通过自动化训练的方式,在没有模型集成的情况下,凭借单一模型登顶 FewCLUE,真的有点「鼎」。其中,EPRSTMT(电商评论情感二分类) 任务中取得了 90.04 分,超过曾经的第一 90.0 分,并刷新了该项任务的最高记录;BUSTM(句子相似度判断)任务中取得了 84.4 分,大幅度刷新了该项任务的最好成绩,其他几项任务也与 SOTA 接近,可以想象一下,如果在离线数据处理场景中使用 GTS 乾坤鼎自动化训练出的模型,那对于数据处理效率上的提升该有多么「鼎」。

GTS 乾坤鼎引擎致力于提供开箱即用的自然语言任务的处理能力,让你仅仅调用不到十行代码,即可低成本地训练出效果强大的模型。据介绍,GTS-Engine 未来将逐步开源全部的训练能力。

Github:https://github.com/IDEA-CCNL/GTS-Engine

如果说 GTS 乾坤鼎生产的 13 亿参数的大模型代表了小样本下的性能巅峰,那么 GTSfactory 生产的 1.1 亿参数的小模型则可能在开创小样本下的应用巅峰。在没有模型集成的情况下,GTSfactory 产出的单一小模型以 1.1 亿参数量取得了 FewCLUE 榜单第三名的成绩,超越一众参数量 10 亿、几十亿的重量级大模型,这说明在 Few-shot 场景下,GTS 训练体系产出的小模型可以兼具高性能及快速推理的能力。

传统的 AI 模型开发模式,一般是「一人负责一个模型」,一个算法工程师负责数据标注、算法尝试和调优、模型评估整个链路的工作,不但耗时耗力,生产的 AI 模型的效果还因算法工程师的水平而异。GTSfactory 平台的出现打破了这一桎梏,设想一下,当你需要进行实时意图识别时,你只需要提供几十条标注数据 + 几小时的训练等待时间,便可以在平台上获取一个性能相当优异的小参数量 AI 模型,业务的生产力将得到极大的释放。正如汽车工业中流水线的进步一样,GTS 打造了 AI 行业的模型自动化生产线,AI 生产工业化时代即将到来。

GTSfactory(gtsfactory.com)当前处于「免费公测」阶段,还有什么问题是免费 GPU 算力解决不了的呢?GTSfactory 背后的 GTS 八卦炉引擎,也将逐步开源所有的训练能力,这样本地也可以一键启动「炼丹」啦~

如何理解 GTS 训练体系?GTS 又如何实现「用 AI 生产 AI」?

首创的「GTS 训练体系」以模型间能力的传递为核心,依托于大模型的强大 NLU 能力,相较于传统基于 NAS 的自动化训练模式,可以极大地减少算力的消耗同时保持模型的性能。

具体的,GTS 训练体系在训练过程中会用到几十亿参数的生成模型 Generator,13 亿参数量及以上的 NLU 大模型 Teacher,最终将 Generator 及 Teacher 的大模型能力转化到 1 亿参数的小模型 Student 中。

在大模型能力的转化过程中,GTS 训练体系融合了「Collaborative Learning」、「Meta Learning」、「Self-Training」、「Prompt」等多种学习范式,开发者将 GTS 训练体系管道化、模块化,实现「N 个算法工程师」共建一个训练体系的算法开发模式,真正的构筑成了一种物理意义上的训练系统。因此,GTS 训练体系,从系统的角度去解读 G、T、S,又可以变为「General Training as a System」。

GTS 训练体系下,Generator 扮演了「存储 + 计算」一体的知识库这样的角色,源源不断地输出下游任务需要的数据,而 Teacher 则是扮演「数据校验」的角色,辅助 Generator 对生成数据进行校验;最终,Student 进一步整合来自 Generator 和 Teacher 的大模型能力。在整个能力传递的过程中,本质上是一个 AI 模型将能力传递到另一个 AI 模型,因此也类似于 AI 模型间的「教学」,这也即是 GTS 训练体系「用 AI 生产 AI」理念的由来。

GTS 乾坤鼎引擎技术揭秘

在 13 亿参数规模的大模型上进行训练,关键在于如何提升模型在小样本数据下的泛化能力。GTS-Engine 主要使用了以下几种关键的技术:

1.有监督预训练

它收集了百万级别带有标签的文本数据,并通过开源的中文概念图谱进行多标签层级的扩充,构造了一个涵盖所有主题的有监督分类数据集,利用这一规模庞大的数据集进行了有监督预训练,主要用于解决主题分类的任务。IDEA 研究院已经在 huggingface 上开源了模型。

2.新的学习范式

GTS-Engine 使用 UniMC(https://arxiv.org/abs/2210.08590)作为学习范式。UniMC 同样也是 IDEA-CNNL 提出的统一 NLU 学习范式,发表在了 EMNLP2022 会议上。它不仅在零样本 NLU 任务上表现优异,在小样本任务上同样效果卓越,在自然语言蕴含和句子对相似任务上,它使用这一范式进行微调。

3.检索增强

GTS-Engine 利用训练数据集构造了一个索引,通过编码器获得的句子向量作为索引的 key,标签作为索引的 value。通过 kNN 的方式对索引进行检索,把 kNN 预测的概率和分类器预测的概率进行插值作为最后的分类概率输出。同时,它也可以利用 TCBert 对句子编码器和分类器进行同时训练,进一步提高性能。

4.数据增强

GTS-Engine 使用 Masking、Dropout、Mixup 等方式进行数据增强,其中 Mixup 通过对输入数据进行简单的线性变换,构造新的组合样本和组合标签,可以增强模型的泛化能力。同时,它也引入了 R-Drop 对同一个句子做两次 Dropout,并且强制由 Dropout 生成的不同子模型的输出概率保持一致,使得模型更具有泛化性。

5.对比学习

GTS-Engine 使用 batch 内样本构造正负例,加入对比损失来训练模型。更进一步地,它也引入了 kNN 对同一个 batch 内的样本进行正负例的扩充,让对比学习能看到更多更丰富的语义,这也进一步提升了效果。

6. 系统化

最后,作者将上述提到的技术,通过训练流水线的方式有机地结合在一起,并加入 Self Training 驱动各个技术间的训练和融合,最终产出一个 13 亿级别参数的大模型。

IDEA 研究院已将部分训练细节进行了开源,GTS 乾坤鼎引擎后续将会逐步更新,将全部的模型生产能力全部开源,让你仅编写不到十行 Python 即可生产最好的 NLU 模型。

GTSfactory 技术揭秘

GTSfactory 的目标是生产出轻量化、可自由部署、高性能的小模型,从算法角度,可以分成离线算法和在线算法。

1.模型离线预训练技术:

A.基于 Meta Learning 的线下大规模有监督数据预训练

B.基于全词 MLM 的线下特定领域数据的无监督预训练 Domain Adaptive Pretraining

2.模型在线训练技术:

A.基于文本检索系统的任务相关预训练 Task Adaptive Pretraining

B.基于 3D 信息对齐的多模型协同训练

C.深度改造的 Prompt Learning

D.Self-Training / 伪标签等半监督技术的运用

E.RDrop、KNN、多任务学习、自适应模型验证等众多 Trick 的整合

小结

GTS 训练体系瞄准当前 AI 产业界的两大痛点:1)数据少、2)人力贵,类似于福特 1913 年发明的汽车生产流水线,IDEA CCNL 希望 GTS 训练体系成为「用 AI 生产 AI」的模型生产线,后续 GTS 训练体系还会纳入更多的 NLP 及多模态任务,如信息抽取、摘要、AIGC 等,为 AI 产业化贡献力量。GTS 系列产品面向更广泛的使用者,能够更快地接入业务轨道,节省硬件、软件、人力等成本,在激烈的市场竞争中,为千百万个尚在萌芽阶段的 ideas 抢救出更多的成长时间。

「让机器拥有与人一样的认知能力」,是一个非常高远的目标,等到它实现并掀起下一次人工智能浪潮,也许时间已经过去了许久。但正是每一次小小的进步,每一次手舞足蹈着宣布的「idea」,坚定地牵引着那一天的到来。

© THE END

转载请联系本公众号获得授权

投稿或寻求报道:content@jiqizhixin.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-11-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
我们正在进入大模型认知智能时代,算法工程师将被取代
编辑 |邓艳琴 作者 |张家兴 近些年迅速发展的大规模预训练模型技术,正在让机器逐渐具备像人一样的认知智能,但是也对算法、系统、算力提出新的需求和挑战。那么,未来 AI 的架构将会是怎样的?在 11 月举办的 ArchSummit 全球架构师峰会(深圳站)2021 中,IDEA 研究院讲席科学家张家兴博士,与我们分享了他对大模型认知智能时代的新架构的思考,本文整理自此次演讲。 在刚刚得到 ArchSummit 全球架构师峰会邀请的时候,我很惊讶。因为在过往十多年的工作经历中,我做过学术研究,也做过算法专家,
深度学习与Python
2023/04/01
1.1K0
我们正在进入大模型认知智能时代,算法工程师将被取代
打破不可能三角、比肩5400亿模型,IDEA封神榜团队仅2亿级模型达到零样本学习SOTA
在今年的一篇文章 [1] 中指出,自预训练技术被提出以来,NLP 界一直存在着一个不可能三角(如下图 1),即一个模型不能同时满足:
机器之心
2022/12/15
5250
打破不可能三角、比肩5400亿模型,IDEA封神榜团队仅2亿级模型达到零样本学习SOTA
首个中文Stable Diffusion模型开源,IDEA研究院封神榜团队开启中文AI艺术时代
生成内容一直被视为 AI 领域中最具有挑战性的能力,最近大火的 AI 绘画背后,是 Stable Diffusion 模型的开源,催生了众多 AI 绘画的应用,得益于 Stability AI 的开源精神,这一创变推动了整个以英文为主的下游文生图生态的蓬勃发展。
机器之心
2022/12/15
1.7K0
首个中文Stable Diffusion模型开源,IDEA研究院封神榜团队开启中文AI艺术时代
CLIP中文模型开源!中文版 DiscoDiffusion 文图生成算法即将到来?
前段时间和几个小伙伴参加一个多模态的比赛,拿了第三,了解了一些多模态相关的内容。但是针对中文视频语义理解的任务,相关开源工作感觉并不是很多。
AI算法与图像处理
2022/12/11
2.1K0
CLIP中文模型开源!中文版 DiscoDiffusion 文图生成算法即将到来?
浅谈图像生成模型 Diffusion Model 原理
近年来,图像生成技术发展迅速,越来越多的人开始关注和探索各种图像生成模型。而 Diffusion Model 作为其中的一种,其在生成高质量图像方面具有重要意义。在本次分享中,我们将探讨 Diffusion Model 的原理和实现方式。希望本次分享能够帮助大家更深入地了解这一领域的技术和方法,以及启发您进一步探索和研究。
小爷毛毛_卓寿杰
2023/04/28
5K0
浅谈图像生成模型 Diffusion Model 原理
PaddleNLP新增AutoPrompt自动化提示功能,登顶FewCLUE小样本学习榜单
近年来,预训练语言模型已逐渐成为NLP任务的主流解决方案。但是在业务场景中,往往会遇到标注数据不足的问题,如何利用少量样本将模型快速迭代至可用状态成为了必要的研究方向。
用户1386409
2022/11/29
8350
PaddleNLP新增AutoPrompt自动化提示功能,登顶FewCLUE小样本学习榜单
浪潮发布全球最大规模 AI 巨量模型"源":单体模型参数量达 2457 亿,超越 OpenAI GPT-3
9月28日,浪潮人工智能研究院在京发布全球最大规模人工智能巨量模型 “源1.0”。“源”的单体模型参数量达2457亿,超越美国OpenAI组织研发的GPT-3,成为全球最大规模的AI巨量模型。“源1.0研讨会”同期举行,来自国内相关领域的院士、专家出席了研讨会,对AI巨量模型的创新与应用进行了深入研讨交流。 源1.0模型参数规模为2457亿,训练采用的中文数据集达5000GB,相比GPT3模型1750亿参数量和570GB训练数据集,源1.0参数规模领先40%,训练数据集规模领先近10倍。 “源1.0”在语言
云头条
2022/03/18
4200
​横扫六大权威榜单后,达摩院开源深度语言模型体系 AliceMind
整理 | AI 科技大本营(ID:rgznai100) 自然语言处理(NLP)被誉为 AI 皇冠上的明珠,传统 NLP 模型制作复杂,耗时耗力,且用途单一,难以复用。预训练语言模型是 NLP 领域的研究热点之一,“预训练+精调”已成为NLP任务的新范式,当前预训练语言模型正在改变局面,有望让语言 AI 走向入可规模化复制的工业时代。 今日,阿里巴巴达摩院正式开源预训练语言模型体系 AliceMind。历经三年研发,AliceMind 涵盖通用语言模型StructBERT、多语言VECO、生成式PALM、多模
AI科技大本营
2023/05/08
3550
​横扫六大权威榜单后,达摩院开源深度语言模型体系 AliceMind
用更少GPU完成更多计算量,中文巨量模型源1.0比GPT-3强在哪里?
自 2018 年谷歌推出 BERT(3.4 亿参数)以来,语言模型开始朝着「大」演进。国内外先后出现了参数量高达千亿甚至万亿的语言模型,比如谷歌的 T5(110 亿)、OpenAI 的 GPT-3(1,750 亿)、智源研究院的 WuDao2.0(1.75 万亿)……
机器之心
2021/12/27
1.4K0
用更少GPU完成更多计算量,中文巨量模型源1.0比GPT-3强在哪里?
因果推理效果比肩ChatGPT,封神榜推出燃灯模型
机器之心专栏 编机器之心编辑部 最近,AIGC 行业的火爆得益于人工智能 (AI) 技术的快速发展,元宇宙数字人、游戏 NPC、复杂场景的控制和决策等越来越多的应用对模型认知能力的强烈需求日益凸显。以预训练大模型为基座,着力于探究语言模型的认知能力是 IDEA 研究院认知计算与自然语言研究中心(IDEA-CCNL)“盖亚计划”的重要方向。 “盖亚计划”由 IDEA 研究院认知计算与自然语言研究中心发起,致力于在预训练大模型时代建设 AIGC 的基础设施。 为赋能中文 AIGC 行业,IDEA-CCNL 封神
机器之心
2023/03/29
4240
因果推理效果比肩ChatGPT,封神榜推出燃灯模型
大模型轻量化实践路径 之 澜舟孟子预训练模型
在上周发布的《一文看懂预训练最新进展》中,澜舟科技创始人兼 CEO 周明和澜舟科技大模型技术负责人王宇龙分享了大模型技术发展背景和近期百花齐放的大模型及新应用、新趋势。本文继续为大家深入介绍“大模型轻量化”趋势以及澜舟的 5 个实践路径。
澜舟科技
2022/07/29
1.7K0
大模型轻量化实践路径 之 澜舟孟子预训练模型
NL2SQL实践系列(1):深入解析Prompt工程在text2sql中的应用技巧
NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(Spider vs BIRD)全面对比优劣分析[Text2SQL、Text2DSL]
汀丶人工智能
2024/04/18
4660
NL2SQL实践系列(1):深入解析Prompt工程在text2sql中的应用技巧
2023年!自然语言处理(NLP)10 大预训练模型
语言模型是构建NLP应用程序的关键。现在人们普遍相信基于预训练模型来构建NLP语言模型是切实有效的方法。随着疫情阴霾的散去,相信NLP技术会继续渗透到众多行业中。在此过程中,肯定有很多同学会用到或者学习NLP预训练模型,为此作者整理了目前2023年NLP的十大预训练模型及论文,模型效果不分先后。
ShuYini
2023/03/06
6.8K1
2023年!自然语言处理(NLP)10 大预训练模型
美团获得小样本学习榜单FewCLUE第一!Prompt Learning+自训练实战
总第515篇 2022年 第032篇 近日,美团搜索与NLP部NLP中心语义理解团队的小样本学习模型FSL++在中文小样本语言理解权威评测基准FewCLUE榜单登顶,在自然语言推理(OCNLI)单任务中取得第一,并在极少数样本(一个类别仅100余个)的条件下,在新闻分类(TNEWS)、科学文献学科分类(CSLDCP)任务上超过了人类识别精确度。 1 概述 2 方法介绍 2.1 增强预训练 2.2 模型结构 2.3 数据增强 2.4 集成学习&自训练 3 实验结果 3.1 数据集介绍 3.2 实验对比 4
美团技术团队
2022/06/13
1.3K0
美团获得小样本学习榜单FewCLUE第一!Prompt Learning+自训练实战
AI十级「找茬」选手,非这个书生莫属,节后开源!
更厉害的是,基于「书生」的通用视觉开源平台OpenGVLab将会在春节后全部公开!
新智元
2022/02/24
4560
AI十级「找茬」选手,非这个书生莫属,节后开源!
2457亿参数!全球最大AI巨量模型「源1.0」发布,中国做出了自己的GPT-3
算法方面,相比于1750亿参数的英文语言模型GTP-3,「源1.0」共包含了2457亿个参数,是前者参数量的1.404倍。
新智元
2021/10/12
6900
「小样本+AutoML」,改变算法生产的「核武器」?
其中,数据对于算法模型的效果至关重要:以深度学习为核心的AI,为了避免发生过拟合或欠拟合的情况,需要使用大量数据来进行模型训练,从而使模型达到更好的拟合优度,这对于解决场景问题无疑大有裨益。
AI掘金志
2022/03/12
3440
270亿参数的“中文版GPT-3”来了!阿里达摩院发布超大规模语言模型PLUG
自18年谷歌BERT横空出世以来,预训练语言模型一跃成为自然语言处理领域的研究热点,海量数据与大规模模型的预训练+少量下游任务数据微调(Pre-training + Fine-tune)也成为NLP任务的新范式。从在开源数据集上进行评测到业务实践中的价值体现,预训练语言模型都被证明能够显著提高模型性能和算法效果。如果说预训练语言模型是2019年以来NLP领域的关键词,随着GPT系列模型的诞生,各大公司和研究机构的军备竞赛为其又冠上了大规模这一限定词。 4月19日,阿里巴巴达摩院发布中文社区最大规模预训练语言
AI科技大本营
2023/05/08
5560
270亿参数的“中文版GPT-3”来了!阿里达摩院发布超大规模语言模型PLUG
孟子轻量化多任务模型已开源,提供出色的 Zero-Shot 及 Few-Shot 能力
经过五个月的开发和场景打磨,孟子多任务模型正式开源,提供出色的 Zero-Shot 及 Few-Shot 能力,以 0.22B 的轻量化模型在零样本学习 ZeroCLUE 和小样本学习权威榜单 FewCLUE 榜单均排名第一,大家可通过 Hugging Face Model Hub 或 GitHub 下载使用(链接见下文)。
澜舟科技
2022/08/23
1.6K0
孟子轻量化多任务模型已开源,提供出色的 Zero-Shot 及 Few-Shot 能力
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
机器之心报道 机器之心编辑部 Yann LeCun 表示:Atlas 是一个不太大的语言模型,具有 110 亿参数,在问答和事实核查方面击败了「大家伙」。 我们可以将大型语言模型(LLMs)理解为小样本学习者,其能够通过很少的例子就能学习新任务,甚至仅通过简单的说明就能学习,其中对模型参数量和训练数据的大小进行扩展是模型拥有泛化能力的关键。LLMs 的这种提升归功于更强大算力和存储能力。直观上,推理能力的提高会带来更好的泛化,从而减少样本的学习,然而目前还不清楚有效的小样本学习在多大程度上需要大量的模型参数
机器之心
2022/08/25
4630
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
推荐阅读
我们正在进入大模型认知智能时代,算法工程师将被取代
1.1K0
打破不可能三角、比肩5400亿模型,IDEA封神榜团队仅2亿级模型达到零样本学习SOTA
5250
首个中文Stable Diffusion模型开源,IDEA研究院封神榜团队开启中文AI艺术时代
1.7K0
CLIP中文模型开源!中文版 DiscoDiffusion 文图生成算法即将到来?
2.1K0
浅谈图像生成模型 Diffusion Model 原理
5K0
PaddleNLP新增AutoPrompt自动化提示功能,登顶FewCLUE小样本学习榜单
8350
浪潮发布全球最大规模 AI 巨量模型"源":单体模型参数量达 2457 亿,超越 OpenAI GPT-3
4200
​横扫六大权威榜单后,达摩院开源深度语言模型体系 AliceMind
3550
用更少GPU完成更多计算量,中文巨量模型源1.0比GPT-3强在哪里?
1.4K0
因果推理效果比肩ChatGPT,封神榜推出燃灯模型
4240
大模型轻量化实践路径 之 澜舟孟子预训练模型
1.7K0
NL2SQL实践系列(1):深入解析Prompt工程在text2sql中的应用技巧
4660
2023年!自然语言处理(NLP)10 大预训练模型
6.8K1
美团获得小样本学习榜单FewCLUE第一!Prompt Learning+自训练实战
1.3K0
AI十级「找茬」选手,非这个书生莫属,节后开源!
4560
2457亿参数!全球最大AI巨量模型「源1.0」发布,中国做出了自己的GPT-3
6900
「小样本+AutoML」,改变算法生产的「核武器」?
3440
270亿参数的“中文版GPT-3”来了!阿里达摩院发布超大规模语言模型PLUG
5560
孟子轻量化多任务模型已开源,提供出色的 Zero-Shot 及 Few-Shot 能力
1.6K0
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
4630
相关推荐
我们正在进入大模型认知智能时代,算法工程师将被取代
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档