首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

北京深度求索公司推出首个国产开源MoE大模型

据量子位报道,北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE 目前推出的版本参数量为 160 亿,实际激活参数量大约是 28 亿。此外,深度求索团队还透露,DeepSeek MoE 模型还有 145 B 版本正在研发。阶段性的初步试验显示,145 B 的 DeepSeek MoE 对 GShard 137 B 具有极大的领先优势,同时能够以 28.5% 的计算量达到与密集版 DeepSeek 67 B 模型相当的性能。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OCXgwG3EHDWA-nF15JatbWAg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券