部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍

清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍

作者头像
AgenticAI
发布2025-03-18 16:58:57
发布2025-03-18 16:58:57
630
举报
文章被收录于专栏:AgenticAIAgenticAI

最近 DeepSeek 火爆全网,相信不少同学都看过所谓的清华大学 DeepSeek 提示词教程(笑)。清华大学是真干实事,近日开源最新的大模型推理引擎赤兔(chitu),是一个专注于效率、灵活性和可用性的高性能大语言模型推理框架。

  • 多元算力适配:不仅支持 NVIDIA 最新旗舰到旧款的多系列产品,也为国产芯片提供优化支持。
  • 全场景可伸缩:从纯 CPU 部署、单 GPU 部署到大规模集群部署,赤兔引擎提供可扩展的解决方案。
  • 长期稳定运行:可应用于实际生产环境,稳定性足以承载并发业务流量。

所谓人中吕布,马中赤兔,名字寓意很好,而性能也超越或者与 vLLM 相当,可谓是名副其实了。我们先看一组实测数据,感受一下赤兔推理引擎的强大。

1. A800 实测

在 A800(40GB) 集群上部署 DeepSeek-R1-671B,vLLM 与 Chitu 同时运行 DeepSeek-R1-671B,3 节点可达 vLLM 6 节点的吐字效率。

这里官方 Repo 没做说明,推测应该是每机器节点 8 卡 A800,即 240G 显存,共 3 个(720G)或者 6 个节点(1440G),不然显存无法运行 BF8 或者 BF16 的满血版本 R1。

乍一看好像很强,其实这个数据没那么明显。事实上,我们应该比的是 6 节点之间的比较,6.85 和 8.5 的差距,有提升但不大。3 节点因为运行的是 FP8,所以不好直接比较的。好在,官网也有在双机 8 卡 H20(96G)上的实测对比数据。

2. H20 实测

在批量较小的情况下,chitu 性能略强或相当于 vllm,在大批量场景下,chitu 的性能有巨大的下降,大约只有 vllm 的 67.9%。

官方表示,我们将在 Chitu 的后续版本中对大批量处理场景进行优化。

我相信大批量场景下,chitu 很快就会优化好。毕竟单 batch 性能领先情况下,大批量只是时间问题,毕竟 3 月 14 号刚开源,就敢和老牌开源推理引擎 vLLM 掰手腕。

3. 支持的模型

官方目前没有一个支持模型的列表,从官方 Repo 上看,涵盖了从 Qwen 7B 到 DeepSeek 671B,主流的开源模型基本都包含了。

  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-bf16
  • DeepSeek-R1
  • Meta-Llama-3-8B-Instruct-original
  • Mixtral-8x7B-Instruct-v0.1
  • Qwen2-72B-Instruct
  • Qwen2-7B-Instruct
  • glm-4-9b-chat

4. 总结

具体部署可参考官方 Repohttps://github.com/thu-pacman/chitu,希望赤兔越来越快,快如其名!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-03-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AgenticAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. A800 实测
  • 2. H20 实测
  • 3. 支持的模型
  • 4. 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档