部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >o3-mini是怎么做到价格削减15倍,逼近DeepSeek R1

o3-mini是怎么做到价格削减15倍,逼近DeepSeek R1

作者头像
AgenticAI
发布2025-03-18 16:36:05
发布2025-03-18 16:36:05
320
举报
文章被收录于专栏:AgenticAIAgenticAI

在上文OpenAI新发布的o3-mini与DeepSeek R1全面对比我们提到o3-mini价格相较o1削减了15倍左右,逼近DeepSeek R1的两倍价格,最终定价每百万输出4.4刀。

那么如何做到的呢?像DeepSeek一样进行工程优化吗?看起来并不是,而是采用新的硬件。OpenAI CEO Sam Altman在o3-mini发布前发了一条推文。

这表明微软引入Nvidia 8机架的GB200 NVL72,并成功运行o3-mini。

NVIDIA GB200 NVL72 是一款高性能计算解决方案,旨在提升人工智能(AI)和数据中心的能力。它将 36 个 Grace CPU 和 72 个 Blackwell Tensor Core GPU 集成在一个液冷的机架级架构中,形成一个统一的 72-GPU NVLink 域,整体表现如同一个巨大的 GPU。

主要特点:

• 增强的 AI 性能: GB200 NVL72 提供高达 30 倍于上一代产品H100的实时大型语言模型(LLM)推理速度,能够高效处理万亿参数模型。

• 加速训练: 配备支持 FP8 精度的第二代 Transformer 引擎,可实现大型 AI 模型训练速度提升至 4 倍,意味着新模型的训练发布周期将会缩短到以周为单位。

• 能源效率: 采用液冷设计,不仅提升了性能,还提高了能源效率,与 NVIDIA H100 相比,能源性能提升高达 25 倍

• 先进的互连技术: 利用第五代 NVIDIA NVLink 技术,系统提供每秒 1.8 TB 的 GPU 间互连带宽,确保 AI 和高性能计算工作负载所需的低延迟通信。

总结

按照之前泄漏信息,GPT 4o系列是6*220B MoE架构,也就是1.8T参数量的模型。那么合理推测o3-mini可能是在4o-mini上训练出来的,不知其参数量是否也要远高于DeepSeek的680B?

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AgenticAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档