很多同学只知类似ChatGPT或者说对国内的一些比较了解,对国外不了解,所以在这总结。
名称 | 参数 | 特点 | 发布时间 |
---|---|---|---|
GPT-2 | 15亿 | 英文底模,开源 | 2019年 |
Google T5 | 110亿 | 多任务微调, 开源 | 2019年 |
GPT-3.5 | 1750亿 | 人工反馈微调 | 2022年 |
Meta OPT | 1750亿 | 英文底模, 开源 | 2022年 |
LLaMA | 70亿~650亿 | 最受欢迎的开源模型之一 | 2023年 |
GPT-4 | 1.8万亿 | 史上最强大模型 | 2023年 |
Vicuna-13B | 130亿 | 开源聊天机器人 | 2023年 |
Falcon | 400亿 | 阿联酋先进技术研究委员会 | 2023年 |
Claude 1.3 | 未公开 | Anthropic研发,注重安全和可靠性 | 2023年 |
PaLM 2 | 未公开 | Google最新大模型 | 2023年 |
Mistral | 7B, 13B | 强调性能和效率 | 2023年 |
GPT-4-turbo | 未公开 | OpenAI更高效版本 | 2023年 |
Claude 2 | 未公开 | 改进的上下文理解和任务执行能力 | 2023年 |
LLaMA 2 | 70亿, 130亿, 700亿 | Meta开源的改进版本,商用更自由 | 2023年 |
Gemini | 未公开 | Google的多模态AI模型 | 2023年 |
Claude 3 | 未公开 | Anthropic的最新版本,包括Opus、Sonnet和Haiku | 2024年 |
GPT-4o | 未公开 | OpenAI的GPT-4升级版 | 2024年 |
Gemini Pro | 未公开 | Google Gemini的升级版 | 2024年 |
名称 | 参数 | 特点 | 发布时间 |
---|---|---|---|
百川智能 | 70亿 | 王小川, 开源 | 2023年 |
文心一言 | 2600亿 | 中文语料85% | 2023年 |
通义千问 | 70亿~700亿 | 总体相当GPT-3 | 2023年 |
ChatGLM6B | 60亿 | 10B以下最强中文开源 | 2023年 |
腾讯混元 | 超千亿 | 腾讯出品多模态 | 2023年 |
MOSS | 160亿 | 多插件, 开源 | 2023年 |
Aquila | 70亿~330亿 | 首个中文数据合规 | 2023年 |
PolyLM | 130亿 | 对亚洲语言友好 | 2023年 |
讯飞星火 | 未公开 | 科大讯飞出品,多模态 | 2023年 |
ChatGLM2-6B | 60亿 | ChatGLM升级版,更强性能 | 2023年 |
天工 | 未公开 | 昆仑万维与奇点智源合作 | 2023年 |
360智脑 | 未公开 | 360公司出品 | 2023年 |
MiniMax | 未公开 | 前百度高管创立 | 2023年 |
ChatGLM3 | 60亿,130亿 | 更强的多轮对话能力 | 2024年 |
文心一言4.0 | 未公开 | 百度升级版,多模态增强 | 2024年 |
通义千问2.0 | 未公开 | 阿里云升级版 | 2024年 |
腾讯混元2.0 | 未公开 | 腾讯升级版 | 2024年 |
Google T5 -> GPT-3 -> GLM130B -> LLaMa -> GPT-4 -> Falcon -> GPT-4v
发展角度,LLM最早在2017年左右,最早所有LLM都是基于谷歌Transformer架构设计。2017年谷歌发布它的T5模型,后续不断有新的这种LLM衍生。包括GPT-2、GPT-3、GLM-130B和以Facebook代表的开源的ollma,还有后来GPT-4及中东的科研机构开发的这个FanCL及最新GPT4,包括多模态模型。
更多 LLM 官网,访问编程严选网-导航:
发布时间看,海外比我们早,能叫得上的或用的比较多的都是2023年才开始发布。
先看国外的,第一个GPT-2大概15亿参数。
LLM的所谓参数,代表一个模型的复杂程度,参数越大,也就说它需要的容量空间,它需要的算力也就越大,那相应的能力就越强。
参数越小,所需算力越小,能力相对较弱。能力强弱,主要通过其回答或提炼问题的能力,就能看出来。
谷歌T5约110亿参数,最大特点是可实现多任务的微调,属于开源。GPT主要是OpenAI的,GPT-3.5面世后,举世震惊,因为效果非常好,但我们看到它的参数也非常可怕,达到1750亿。所以说它需要算力非常多,就能支持人工反馈的微调。
随后就是Meta公司即Facebook,其模型大概1750亿,底模英文。
大模型预训练时,有个预训练过程,需大量语料,若大量用英文材料,底模即英文,在其基础做英文问题回答,效果较好。
llama也叫羊驼,https://www.alpacaml.com/:
目前比较主流的一个开源模型,目前开源里参数较大,效果较好,最受欢迎LLM之一。 GPT4最新版诞生后,最新参数没变化,但底模数量较大。GPT-4参数达1.8万亿,号称史上最强。
比如GPT底模里有中文语料,所以它足够大,涵盖基本所有互联网知识,GPT-3.5截止2021年之前互联网知识,4把知识库呢更新到2023年。所以涵盖语言种类较多。
首先百川智能,王小川搞的,参数70亿,相当羊驼。
百度文心一言就相对比较大,百度搞AI投入还是比较大的,参数2600亿,中文语料占85%。
阿里通义千问参数在70~700亿之间,总体能力相当于GPT-3,国内还是稍差。
GLM-6B大概60亿参数,清华大学团队。目前国内或国际100亿以下最强中文开源模型,100亿参数窗口之下效果最好的目前是它,真的不错。
腾讯混元,具体参数没公布,大概超千亿,支持多模态。
除了文字文本生成,还有图像生成,文到图、图到文啊等就是各种模态支持。底模或它的预训练更复杂,不光训练文字,还训练图片,支持多插件的开源模型。
各有特点,但国内有两大特点:
商用角度,开源模型不太理想,llama不支持商用,但GLM都可商用,包括百川、FanCL都可商用。
百模大战,千模大战多模型大战,就是由OpenAI引爆。Hugging Face,抱脸,相当于AI界GitHub。很多开源模型可以找到:
可见整个LLM发展生态繁荣。
ChatGLM就是清华团队的,他们在PupilFace上面的一个主页。可看到他们作品。
已创建的LMs(Large Models,大型模型),LLM像ChatGLM、WebGLM 130B等,还有一些相应工具,包括预训练的这些图训练的神经网络。https://huggingface.co/THUDM/chatglm3-6b:
可见其6B(6 billion,60亿参数),32K(可能指模型的某种配置或版本),然后包括7B(7 billion,70亿参数),13B(13 billion,130亿参数)。最强130B(130 billion,1300亿参数)。
整个大模型确实非常多,每个模型都有自己的特色。
大模型名称 | 参数 | 是否可商用 |
---|---|---|
ChatGLM | 6B, 1T | 可商用 |
ChatGLM2 | 6B, 1T | 可商用 |
LLaMA | 7B, 13B, 33B, 65B, 1T | 不可商用 |
LLaMA2 | 7B, 13B, 33B, 65B, 2T | 可商用 |
BLOOM | 1B7, 7B1, 176B-MT, 1.5T | 可商用 |
Baichuan | 7B, 13B, 1.2T, 1.4T | 可商用 |
Falcon | 7B, 40B, 1.5T | 可商用 |
Qwen | 7B, 7B-Chat, 2.2T | 可商用 |
Aquila | 7B, 7B-Chat | 可商用 |
Mistral | 7B, 13B | 可商用 |
Gemma | 2B, 7B | 可商用 |
Claude | 未公开 | 不可商用 |
GPT-4 | 未公开 | 不可商用 |
PaLM 2 | 未公开 | 不可商用 |
Gemini | 未公开 | 不可商用 |
BERT | 110M, 340M | 可商用 |
RoBERTa | 125M, 355M | 可商用 |
T5 | 60M, 220M, 770M, 3B, 11B | 可商用 |
Gopher | 280B | 不可商用 |
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。