
DeepSeek 团队今日发布 DeepSeek‑R1‑0528 —— 基于 DeepSeek V3 Base(2024‑12) 的小版本升级。 无论是官网、App、小程序还是 API,打开 “深度思考” 即可直接体验。
在保持 685 B 参数规模(其中 14 B 为 MTP 层)不变的前提下,官方追加了算力投入以强化推理链(Chain‑of‑Thought, CoT)。 关键改动:
模块 | 旧版 | 新版 0528 | 变化 |
|---|---|---|---|
后训练步数 | 1× | 1.4× | +40 % |
推理深度 | 平均 12 K tokens/题 | 23 K tokens/题 | +92 % |
AIME 2025 准确率 | 70 % | 87.5 % | ↑ |
动机:让模型在生成最终答案前,倾向于输出更完整的推理链,从而减少“拍脑袋”式的幻觉。

测试条件:64 K 上下文,Humanity’s Last Exam 仅计入纯文本题。
此外,官方将思考链蒸馏到 Qwen3‑8B,得到 DeepSeek‑R1‑0528‑Qwen3‑8B,在 AIME‑2024 仅次于原版 R1‑0528,超过 Qwen3‑8B (+10 %),逼平 Qwen3‑235B。



新版 API Endpoint 与参数名完全兼容旧版,仅
max_tokens语义改变 —— 约束 “单次输出总长度(含思考链)”。
参数 | 默认 | 上限 |
|---|---|---|
max_tokens | 32 K | 64 K |
import deepseek
client = deepseek.Reasoning(api_key="YOUR_KEY")
functions = [
{
"name": "get_weather",
"description": "天气查询",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string"}
},
"required": ["city"]
}
}
]
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{"role": "user", "content": "广州明天穿短袖合适吗?"}],
functions=functions,
json_output=True, # 👈 新增参数
max_tokens=32768 # 注意:含思考链
)
print(response.choices[0].message)完整指南见官方文档:https://api-docs.deepseek.com/zh-cn/guides/reasoning_model
资源 | 链接 |
|---|---|
ModelScope | https://modelscope.cn/models/deepseek-ai/DeepSeek-R1-0528 |
Hugging Face | https://huggingface.co/deepseek-ai/DeepSeek-R1-0528 |
私有化部署仅需替换 checkpoint 与 tokenizer_config.json,无需重下 Base。
DeepSeek‑R1‑0528 用更深的思考链把 国产推理性能推进到新高度:
如果你在 学术研究 追求可解释推理,或在 工业场景 需要大模型私有部署,都值得立即上手体验!
Star & Fork 不迷路,欢迎交流你在落地过程中的踩坑与最佳实践。