前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >重磅!斯坦福 AI 团队被曝抄袭中国大模型开源成果,推特舆论开始发酵

重磅!斯坦福 AI 团队被曝抄袭中国大模型开源成果,推特舆论开始发酵

作者头像
AI科技评论
发布于 2024-06-03 07:17:11
发布于 2024-06-03 07:17:11
4950
举报
文章被收录于专栏:AI科技评论AI科技评论

美国也有投机分子。

作者 | 西西

编辑 | 陈彩娴

过去一年,中国大模型一直被贴上「追赶美国」的标签,但近日,推特上却有人曝出:美国斯坦福大学的一个 AI 团队疑似抄袭、「套壳」一家中国大模型公司的开源成果,模型架构与代码完全相同。

舆论已经开始发酵,引起了圈内人士的广泛讨论。

根据 AI 科技评论整理,事情的经过大致如下:

5 月 29 日,斯坦福大学的一个研究团队发布了一个名为「Llama3V」的模型,号称只要 500 美元(约等于人民币 3650 元)就能训练出一个 SOTA 多模态模型,且效果比肩 GPT-4V、Gemini Ultra 与 Claude Opus 。

  • Github开源:https://github.com/mustafaaljadery/llama3v
  • HuggingFace开源:https://huggingface.co/mustafaaljadery/llama3v(已删库)
  • Medium发布文章:https://aksh-garg.medium.com/llama-3v-building-an-open-source-gpt-4v-competitor-in-under-500-7dd8f1f6c9ee
  • Twitter官宣模型:https://twitter.com/AkshGarg03/status/1795545445516931355

由于该团队的作者(Mustafa Aljaddery、Aksh Garg、Siddharth Sharma)来自斯坦福,又集齐了特斯拉、SpaceX、亚马逊与牛津大学等机构的相关背景经历,很快该模型发布的推特帖子浏览量就已经超过 30 万,转发 300+次,并迅速冲到了 Hugging Face 首页:

但很快,没过几天,推特与 Hugging Face 上就开始出现怀疑的声音,质疑 Llama3V 套壳面壁智能在 5 月中旬发布的 8B 多模态小模型 MiniCPM-Llama3-V 2.5,且没有在 Llama3V 的工作中表达任何「致敬」或「感谢」 MiniCPM-Llama3-V 2.5 的声音。

对此,Llama3V 团队回复,他们「只是使用了 MiniCPM-Llama3-V 2.5 的 tokenizer」,并宣称「在 MiniCPM-Llama3-V 2.5 发布前就开始了这项工作」。

紧接着,6 月 2 日,有网友在 Llama3V 的 Github 项目下抛出事实性质疑,但很快被 Llama3V 的团队删除。为此,提出质疑的网友被激怒暴走,跑到了 MiniCPM-V 的 Github 页面进行事件还原,提醒面壁智能团队关注此事。

随后,面壁团队通过测试 ,发现 Llama3V 与 MiniCPM-Llama3-V 2.5 在「胎记」般案例上的表现 100% 雷同,「不仅正确的地方一模一样,连错误的地方也一模一样」。

至此,推特舆论开始发酵,「斯坦福抄袭中国大模型」一事不胫而走。

1、「套壳」证据实锤

斯坦福团队百口莫辩

最开始,用户质疑 Llama3V 套壳 MiniCPM-Llama3-V 2.5 开源模型时,Llama3V 作者团队并不承认,而是声称他们只是「使用了 MiniCPM-Llama3-V 2.5 的 tokenizer」,并宣称他们「在 MiniCPM-Llama3-V 2.5 发布前就开始了这项工作」:

不过,好心网友对 Llama3V 作者团队的回应并不买单,而是在 Llama3V 的 Github Issue 上发布了一系列质疑,列举具体 4 点证据,但很快被 Llama3V 的团队删除。幸好作者事先截了图保留:

面对网友的质疑,Llama3V 作者只是避重就轻地回复,称他们只是使用了 MiniCPM 的配置来解决 Llama3V 的推理 bug,并称「MiniCPM 的架构是来自 Idéfics,SigLIP也来自 Idéfics,他们也只是追随 Idéfics 的工作」而非 MiniCPM 的工作,因为「MiniCPM 的视觉部分也是来自 Idéfics 的」——

并且将原来 readme 里引用致谢 「MiniCPM-Llama3 」改为了「致谢 MiniCPM」:

但根据网友的复盘、梳理,Llama3V 并非只是简单的借鉴,而是有 4 点证据能充分表明其「套壳」了 MiniCPM-Llama3-V 2.5。

证据 1:

Llama3V 项目使用了与 MiniCPM-Llama3-V 2.5 项目完全相同的模型结构和代码实现。

Llama3-V 的模型结构和配置文件与 MiniCPM-Llama3-V 2.5 完全相同,只是变量名不同。

图左为 MiniCPM-Llama3-V 2.5,图右为 Llama3V

Llama3-V 的代码是通过对 MiniCPM-Llama3-V 2.5 的代码进行格式调整和变量重命名得到的,包括但不限于图像切片方式、tokenizer、重采样器和数据加载:

证据 2:

Llama3V 团队称其「引用了 LLaVA-UHD 作为架构」,但事实是 Llama3V 与 MiniCPM-Llama3-V 2.5 结构完全相同,但在空间模式等多方面却与 LLaVA-UHD 有较大差异。

Llama3-V 具有与 MiniCPM-Llama3V 2.5 相同的标记器(tokenizer),包括 MiniCPM-Llama3-V 2.5 新定义的特殊标记:

证据 3:

Llama3V 作者曾在 Hugging Face 上直接导入了 MiniCPM-V 的代码,后改名为 Llama3V。事件发酵后,AI 科技评论打开 Hugging Face 页面发现已经「404」:

https://huggingface.co/mustafaaljadery/llama3v/commit/3bee89259ecac051d5c3e58ab619e3fafef20ea6

Llama3V 作者回应删除 Hugging Face 仓库的原因是「修复模型的推理问题」,并称他们「尝试使用 MiniCPM-Llama3 的配置,但并没有用」:

戏剧效果拉满的是,该网友随后贴出了如何使用 MiniCPM-Llama3-V 的代码,跑通 Llama3V 模型推理的详细步骤。

当 Llama3V 的作者被询问如何能在 MinicPM-Llama3-V2.5 发布之前就使用它的 tokenizer 时(因为其一开始称他们在 MinicPM-Llama3-V2.5 发布前就已经开始了 Llama3V 的研究),Llama3V 的作者开始撒谎,称是从已经发布的上一代 MinicPM-V-2 项目里拿的tokenizer:

但事实是,据 AI 科技评论向面壁团队了解,MiniCPM-V-2 的 tokenizer 与 MinicPM-Llama3-V2.5 完全不同,在Huggingface 里是两个文件,「既不是同一个 tokenizer 件,文件大小也完全不同」。

MinicPM-Llama3-v2.5 的 tokenizer 是 Llama3 的 tokenizer 加上 MiniCPM-V 系列模型的一些特殊 token 组成,MiniCPM-v2 因为在 Llama3 开源之前就发布,所以不会有 Llama3 的 tokenizer :

证据 4:

Llama3V 的作者删除了 GitHub 上的相关 issue,并似乎不完全理解 MinicPM-Llama3-V2.5 的架构或 Llama3V 自己的代码。

Perceiver重采样器是一个单层的交叉注意力机制,而不是两层自注意力机制。SigLIP 的 Sigmoid 激活函数并未用于训练多模态大型语言模型,而仅用于 SigLIP 的预训练。

但 Llama3V 在论文中的介绍却说其采用了两层自注意力机制:

而 MiniCPM-Llama3-V 2.5 和 Llama3V 代码如下,体现的却是单层交叉注意力机制:

Llama3-V:

MiniCPM-Llama3-V 2.5:

且视觉特征提取不需要激活 sigmoid:

2、推特舆论发酵,面壁回应

6 月 2 日下午,该事件开始在推特上发酵,MiniCPM-V 的作者亲自发帖,表示「震惊」,因为斯坦福的 Llama3V 模型居然也能识别「清华简」。

据 AI 科技评论向面壁团队了解,「清华简」是清华大学于 2008 年 7 月收藏的一批战国竹简的简称;识别清华简是 MiniCPM-V 的「胎记」特征。该训练数据的采集和标注均由面壁智能和清华大学自然语言处理实验室团队内部完成,相关数据尚未对外公开。

斯坦福的 Llama3V 模型表现与 MiniCPM-Llama3-V 2.5 检查点的加噪版本高度相似:

以下是面壁团队成果与 Llama3V 对「清华简」的识别对比。结果显示,两个模型不仅正确的地方一模一样、错误的地方也雷同:

Q:

请识别图像中的竹简字?

MiniCPM-Llama3-V 2.5:

Llama3-V:

GT:

错误识别示例:

Q:

请识别图像中的竹简字?

MiniCPM-Llama3-V 2.5:

君子

Llama3-V:

君子

GT:甬

以下是在 1000 个清华简字体上的识别效果:

可以看到,Llama3V 与 MiniCPM-Llama3-V 2.5 的重叠高达 87%,且两个模型的错误分布律高度相似:Llama3V 的错误率为 236,MiniCPM-Llama3-V 2.5 的错误率是 194,两个模型在 182 个错误识别上相同。

同时,两个模型在清华简上的高斯噪声也同样高度相似:

此外,Llama3V 的 OCR 识别能力在中文字上也与 MiniCPM-Llama3-V 2.5 高度相似。对此,面壁团队表示,他们很好奇斯坦福团队是如何只用「500 美元就能训练出这么高深的模型性能」。

Prompt:请输出图片中的文字——

MiniCPM-Llama3-V 2.5 的表现:

### 标题

9倍像素更清晰

### 副标题

难图长图长文本精准识别

### 正文

OCR技术进一步打磨,复杂推理与多模态识别能力再进化,MiniCPM-Llama3-V2.5对于难图、长图、长文本的精准识别,再度带来出众表现!面壁自研高清图像高效编码技术,我们可以高效编码及无损识别180万高清像素图片,并且支持任意长宽比、甚至「有点变态」的1:9极限比例图像,突破了传统技术仅能识别20万像素小图的瓶颈。此前,MiniCPM-V系列多模态模型就因对于街景、长图等困难场景的高效解析,赢得了良好口碑。

### 图片描述

1. **180万像素**

- 任意长宽比

- 图像无损识别

- 可支持

- 1:9极限宽高比

Llama3V 的表现:

### 标题

9倍像素更清晰

### 副标题

难图长图文本精准识别

### 正文

OCR技术进一步打磨,复杂推理与多模态识别能力再进化,MiniCPM-Llama3-V2.5对于难图、长文本的精准识别,再度带来出众表现。面壁自研高清图像高效编码技术,我们可以高效编码及无损识别180万高清像素图片,并且支持任意长宽比、甚至「有点变态」的1:9极限比例图像,突破了传统技术仅能识别20万像素小图的瓶颈。此前,MiniCPM-V系列多模态模型就因对于街景、长图等困难场景的高效解析,赢得了良好口碑。

### 图片描述

- **180万像素**:任意长宽比,图像无损识别,可支持。

- **1:9极限宽高比**:可支持。

根据公开信息显示,Llama3V 的两位作者 Siddharth Sharma 与 Aksh Garg 是斯坦福大学计算机系的本科生,曾发表过多篇机器学习领域的论文。

其中,Siddharth Sharma 曾在牛津大学访问、在亚马逊实习;Aksh Garg 也曾在 SpaceX 实习。

这件事反映出,AI 研究的投机分子不分国度。

同时,也反映出,中国科研团队的开源大模型实力已经冲出国门,逐渐被越来越多国际知名的机构与开发者所关注、学习。

中国大模型不仅在追赶世界顶尖机构,也正在成为被世界顶尖机构学习的对象。由此可见,今后看客们审视国内外的大模型技术实力对比,应该多一份民族自信、少一点崇洋媚外,将关注度多聚焦在国内的原创技术上。

最后,一句话总结:

投机不可取,永争创新一。

未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载! 公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
斯坦福 AI 团队“套壳”清华系开源大模型被实锤!被揭穿后全网删库跑路
5 月 29 日,一个来自斯坦福的作者团队在 Medium 上发布了一篇名为《Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollars》的文章,文章中称他们训练出了一个比 GPT-4V、Gemini Ultra、Claude Opus 更强的 SOTA 开源多模态模型,尺寸比 GPT4-V 小 100 倍,训练成本仅需 500 美元。
深度学习与Python
2024/06/17
1830
斯坦福 AI 团队“套壳”清华系开源大模型被实锤!被揭穿后全网删库跑路
斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
在 GPT-4o 出世后,Llama3 的风头被狠狠盖过。GPT-4o 在图像识别、语音理解上卓越的性能展现了它强大多模态能力。开源领域的领头羊 Llama3 曾在几乎所有基准测试中都超越了 GPT-3.5,甚至在某些方面超越了 GPT-4。这次就要闷声「吃瘪」了吗?
机器之心
2024/06/04
2480
斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型
最新致歉推文,由Siddharth Sharma(悉达多)和Aksh Garg(阿克什)发出。
量子位
2024/06/04
2130
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型
国产「小钢炮」一夜干翻巨无霸GPT-4V、Gemini Pro!稳坐端侧多模态铁王座
拳打GPT-4V,脚踢Gemini Pro,仅仅8B参数就能击败多模态大模型王者。
新智元
2024/05/22
1690
国产「小钢炮」一夜干翻巨无霸GPT-4V、Gemini Pro!稳坐端侧多模态铁王座
AI日报|斯坦福团队被曝抄袭国内大模型已删库跑路!英伟达打破摩尔定律,机器人时代到来
AI日报|下个月苹果Siri终于变智能了,语音控制所有App;OpenAI机器人团队即将重出江湖!
可信AI进展
2024/06/04
2230
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
从 ChatGPT 到 Sora,生成式 AI 技术遵从《苦涩的教训》、Scaling Law 和 Emerging properties 的预言一路走来,让我们已经看到了 AGI 的冰山一角,但技术的发展的方向还不尽于此。
机器之心
2024/04/13
2190
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
可信度超越GPT-4V,清华&面壁揭秘「小钢炮」模型背后的高效对齐技术
本文主要作者来自 MiniCPM-V 团队,其中第一作者余天予是清华大学 2021 级硕士研究生,他的主要研究方向是通用多模态基础大模型构建及其对齐方法。
机器之心
2024/06/17
2090
可信度超越GPT-4V,清华&面壁揭秘「小钢炮」模型背后的高效对齐技术
端侧AI的终极形态
作为争夺下一代流量入口的关键机遇,端侧AI(运行在手机等设备端的生成式AI模型)已然成为各大厂商必争之地。虽然,站在当下的时间点,除了少数工程样机之外,我们仍难以在终端设备上获得理想的AI体验,这主要是因为大模型在终端设备落地时,仍然面临诸多挑战。比如,短期内,从突破难度来排序,电池续航和散热问题>显存带宽>GPU算力和显存容量,成为一系列亟待解决的难点。尽管如此,终端生态多方的信心并没有受到影响,大家正在使尽浑身解数共同促进端侧AI的实现。
小腾资讯君
2024/08/28
4290
国产端侧小模型超越 GPT-4V,「多模态」能力飞升
在刚刚过去的机器人学术顶会 ICRA 2024 上,「具身智能」成为热议,其中围绕具身智能的一个普遍疑问是:若将 AI 大模型应用到消费级机器人领域,首先是模型适配终端,还是终端适配模型?
AI科技评论
2024/05/22
1K0
国产端侧小模型超越 GPT-4V,「多模态」能力飞升
端侧大模型浪潮奔涌而至:态势、影响与建议
10月10日,Vivo推出蓝心端侧大模型 3B,其AI能力已覆盖60多个国家和地区,服务超5亿手机用户,大模型token输出量超过3万亿;随后,字节发布首款AI智能体耳机Ola Friend,与豆包深度集成;18日,荣耀同期发布了Magic OS 9.0 ,打造AI OS,其上的YOYO智慧助手已经打通了多款APP,可以实现一句话充值、一句话点外卖等服务。中国信通院与荣耀等企业还共同发布了《终端智能化分级研究报告》,推出了行业首个终端智能化分级体系。
小腾资讯君
2024/10/31
5100
全自动组装家具! 斯坦福发布IKEA Video Manuals数据集:首次实现「组装指令」真实场景4D对齐
在复杂的3D结构组装中,理解和执行说明书是一个多层次的挑战:从高层的任务规划,到中层的视觉对应,再到底层的动作执行,每一步都需要精确的空间理解能力。
新智元
2025/02/15
1340
全自动组装家具! 斯坦福发布IKEA Video Manuals数据集:首次实现「组装指令」真实场景4D对齐
每周AI论文速递(240805-240809)
Medical SAM 2: 利用 Segment Anything Model 2 实现医学图像的视频化分割
叶子的技术碎碎念
2025/04/08
980
每周AI论文速递(240805-240809)
真·从零复刻ChatGPT!斯坦福等开启「红睡衣」计划,先开源1.2万亿token训练集
---- 新智元报道   编辑:LRS 【新智元导读】从零打造ChatGPT,AI从业者大团结! Meta AI开源的大羊驼LLaMA模型彻底点燃了开源社区的热情,并在此基础上相继开发出了各种类ChatGPT的羊驼Alpaca, Vicuna等。 但Meta只是开源了LLaMA的权重,训练用到的数据集并没有开源出来,对于那些想从头开始训练LLaMA的从业者来说,目前还没有开源方案。 最近,由Ontocord.AI,苏黎世联邦理工学院DS3Lab,斯坦福CRFM,斯坦福Hazy Research 和蒙特
新智元
2023/05/09
4210
真·从零复刻ChatGPT!斯坦福等开启「红睡衣」计划,先开源1.2万亿token训练集
斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现
机器之心报道 机器之心编辑部 学界或许没有业界的算力优势,但可以使用 self-instruct 方法直面大规模语言模型的挑战。 随着大规模语言模型的日渐强大,人们对 AI 模型提出了伦理道德方面的更高要求。业界在模型规模扩展方面具有算力资源优势,但要想让模型更规范、可靠,需要学术界的努力。 近日,斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个新模型 Alpaca。该研究让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令遵循(ins
机器之心
2023/03/29
4990
斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现
OpenAI 终于发布 GPT-4o mini,但比中国大模型晚了半年
美国时间 7 月18 日,OpenAI 正式发布了多模态小模型 GPT-4o mini,在海内外引起了广泛关注。
AI科技评论
2024/07/29
2770
OpenAI 终于发布 GPT-4o mini,但比中国大模型晚了半年
超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k
近日,斯坦福大学研究人员推出的 Octopus v2 火了,受到了开发者社区的极大关注,模型一夜下载量超 2k。
机器之心
2024/04/12
1840
超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k
手机上的 GPT-4V 级多模态大型语言模型!
随着多模态大型语言模型(MLLM)的快速发展,作者的理解、推理和交互能力在多个模态下有了显著提升。这不仅从根本上改变了AI研究和发展的新格局,而且为向下一个AI里程碑迈进提供了一扇诱人的窗户。然而,当前的MLLM在实际应用中仍存在很大的局限性。其中一个最突出的挑战是,目前大多数MLLM参数数量庞大,计算负担重,导致大多数MLLM只能部署在高性能云服务器上,从而产生大量的能源消耗和碳排放。这一限制极大地限制了潜在的应用范围,如在移动设备、敏感能源场景、没有稳定网络连接的离线场景以及个人和工业用户的隐私/安全保护场景等。
AIGC 先锋科技
2024/08/19
1860
手机上的 GPT-4V  级多模态大型语言模型!
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
在OpenAI与Perplexity绞尽脑汁去动谷歌搜索的蛋糕时,斯坦福研究团队却「于无声处响惊雷」,一鸣惊人推出了支持避开信息盲点、全面整合可靠信息、从头写出维基长文的STORM&Co-STORM系统。
新智元
2025/02/15
930
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了
当我们看到一张猫咪照片时,大脑自然就能识别「这是一只猫」。但对计算机来说,它看到的是一个巨大的数字矩阵 —— 假设是一张 1000×1000 像素的彩色图片,实际上是一个包含 300 万个数字的数据集(1000×1000×3 个颜色通道)。每个数字代表一个像素点的颜色深浅,从 0 到 255。
机器之心
2025/03/21
840
李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了
MiniCPM,能被斯坦福抄袭究竟有何魅力?我们一起看看论文吧!
https://arxiv.org/pdf/2404.06395 随着开发具有高达数万亿参数的大型语言模型(LLMs)的兴趣激增,关于资源效率和实际成本的担忧也随之而来,特别是考虑到实验的巨大成本。这一情形突显了探索小型语言模型(SLMs)作为资源高效替代方案的潜力。在此背景下,我们介绍了MiniCPM,特别是其1.2B和2.4B非嵌入参数变体,这些变体不仅在各自的类别中表现出色,而且在能力上与7B-13B的LLMs不相上下。尽管我们专注于SLMs,但我们的方法在模型和数据维度上都表现出可扩展性,为未来LLM的研究提供了可能。
AI浩
2024/10/22
4100
MiniCPM,能被斯坦福抄袭究竟有何魅力?我们一起看看论文吧!
推荐阅读
斯坦福 AI 团队“套壳”清华系开源大模型被实锤!被揭穿后全网删库跑路
1830
斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
2480
套壳丑闻让斯坦福AI Lab主任怒了!抄袭团队2人甩锅1人失踪、前科经历被扒,网友:重新认识中国开源模型
2130
国产「小钢炮」一夜干翻巨无霸GPT-4V、Gemini Pro!稳坐端侧多模态铁王座
1690
AI日报|斯坦福团队被曝抄袭国内大模型已删库跑路!英伟达打破摩尔定律,机器人时代到来
2230
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
2190
可信度超越GPT-4V,清华&面壁揭秘「小钢炮」模型背后的高效对齐技术
2090
端侧AI的终极形态
4290
国产端侧小模型超越 GPT-4V,「多模态」能力飞升
1K0
端侧大模型浪潮奔涌而至:态势、影响与建议
5100
全自动组装家具! 斯坦福发布IKEA Video Manuals数据集:首次实现「组装指令」真实场景4D对齐
1340
每周AI论文速递(240805-240809)
980
真·从零复刻ChatGPT!斯坦福等开启「红睡衣」计划,先开源1.2万亿token训练集
4210
斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现
4990
OpenAI 终于发布 GPT-4o mini,但比中国大模型晚了半年
2770
超越GPT-4,斯坦福团队手机可跑的大模型火了,一夜下载量超2k
1840
手机上的 GPT-4V 级多模态大型语言模型!
1860
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
930
李飞飞、吴佳俊团队新作:不需要卷积和GAN,更好的图像tokenizer来了
840
MiniCPM,能被斯坦福抄袭究竟有何魅力?我们一起看看论文吧!
4100
相关推荐
斯坦福 AI 团队“套壳”清华系开源大模型被实锤!被揭穿后全网删库跑路
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档