部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >DeepSeek R1&V3 原版论文摘要

DeepSeek R1&V3 原版论文摘要

作者头像
用户11468258
发布2025-02-05 15:33:31
发布2025-02-05 15:33:31
4230
举报

《DeepSeek-R1:通过强化学习激励法学硕士的推理能力》

论文原文:https://arxiv.org/pdf/2501.12948

论文提要

1. 引言

  • 背景:近年来,大型语言模型(LLMs)在快速迭代和进化,逐渐缩小了与通用人工智能(AGI)之间的差距。后训练(post-training)已经成为完整训练流程中的一个重要组成部分,能够提升模型在推理任务上的准确性、与社会价值观的对齐以及对用户偏好的适应性。
  • 问题:尽管OpenAI的o1系列模型通过扩展链式推理(CoT)过程在多种推理任务中取得了显著改进,但如何有效实现测试时扩展仍然是一个开放性问题。
  • 目标:论文的目标是通过纯强化学习(RL)提升语言模型的推理能力,探索LLMs在没有任何监督数据的情况下,通过自我进化发展推理能力的潜力。

2. 方法

2.1 概述
  • 论文展示了即使不使用监督微调(SFT)作为冷启动,通过大规模强化学习(RL)也可以显著提升推理能力。
  • 进一步引入少量冷启动数据可以进一步提升性能。
2.2 DeepSeek-R1-Zero:在基础模型上应用强化学习
  • 强化学习算法:采用GRPO(Group Relative Policy Optimization)算法,避免使用与策略模型大小相同的批评者模型,通过组分数估计基线。
  • 奖励建模:采用基于规则的奖励系统,包括准确性奖励和格式奖励。
  • 训练模板:设计了一个简单的模板,要求模型首先生成推理过程,然后提供最终答案。
  • 性能:DeepSeek-R1-Zero在AIME 2024基准测试中表现出色,pass@1分数从15.6%提升至71.0%,通过多数投票进一步提升至86.7%,与OpenAI-o1-0912相当。
2.3 DeepSeek-R1:带有冷启动的强化学习
  • 冷启动:通过收集数千个长CoT数据微调基础模型,作为RL的起点。
  • 推理导向的强化学习:在微调后的模型上应用与DeepSeek-R1-Zero相同的RL训练过程。
  • 拒绝采样和监督微调:在RL收敛后,通过拒绝采样生成新的SFT数据,并结合其他领域的数据进行微调。
  • 面向所有场景的强化学习:在最终阶段,对模型进行额外的RL训练,优化其在各种场景下的表现。
2.4 蒸馏:赋予小型模型推理能力
  • 使用DeepSeek-R1作为教师模型,通过蒸馏将推理能力传递给小型密集模型,显著提升了这些模型的推理能力。

3. 实验

  • 基准测试:在MMLU、MMLU-Pro、GPQA Diamond、SimpleQA、LiveCodeBench、Codeforces等多个基准测试中评估模型性能。
  • 评估提示:使用零样本提示,避免少样本提示对性能的负面影响。
  • 基线模型:与DeepSeek-V3、Claude-Sonnet-3.5-1022、GPT-4o-0513、OpenAI-o1-mini等模型进行比较。
  • 评估设置:使用pass@𝑖?评估方法,生成多个响应并计算平均准确性。

4. 讨论

  • 蒸馏与强化学习:蒸馏方法在提升小型模型推理能力方面表现出色,而直接在小型模型上应用RL则需要更多的计算资源。
  • 未成功的尝试:探索了过程奖励模型(PRM)和蒙特卡洛树搜索(MCTS),但这些方法在大规模训练中面临挑战。

5. 结论、局限性和未来工作

  • 结论:DeepSeek-R1通过强化学习显著提升了推理能力,与OpenAI-o1-1217相当。
  • 局限性:DeepSeek-R1在某些任务(如函数调用、多轮对话)上的表现不如DeepSeek-V3,且存在语言混杂问题。
  • 未来工作:计划进一步提升模型的通用能力,优化语言混杂问题,并探索更高效的训练方法。

论文还开源了DeepSeek-R1-Zero、DeepSeek-R1以及基于Qwen和Llama的多个蒸馏模型,为研究社区提供了宝贵的资源。

《DeepSeek-V3 技术报告》

论文原文:https://arxiv.org/html/2412.19437v1

研究背景

近年来,大型语言模型(LLMs)在人工智能领域取得了快速的发展,逐渐接近通用人工智能(AGI)。开源模型如 DeepSeek 系列、LLaMA 系列等也在不断进步,努力缩小与闭源模型的差距。为了进一步提升开源模型的能力,研究者们推出了 DeepSeek-V3,这是一个参数规模更大的 MoE 模型,旨在通过高效的架构和训练策略实现更强的性能。

研究方法

DeepSeek-V3 的架构基于以下关键技术和策略:

  1. Multi-head Latent Attention (MLA)DeepSeekMoE:这两种架构在 DeepSeek-V2 中已经得到验证,能够实现高效的推理和成本效益的训练。
  2. 无辅助损失的负载平衡策略:通过动态调整专家的负载,避免了因负载平衡而导致的性能下降。
  3. 多 token 预测训练目标:通过预测多个未来 token 来增强模型性能。
  4. FP8 混合精度训练:首次在大规模模型上验证了 FP8 训练的有效性,显著降低了 GPU 内存使用量并加速了训练。
  5. 高效的训练框架:包括 DualPipe 算法和跨节点 All-to-All 通信的优化,减少了通信开销并提高了训练效率。

实验与结果

DeepSeek-V3 在 14.8 万亿高质量和多样化的 token 上进行了预训练,并通过监督微调(SFT)和强化学习(RL)阶段进一步优化。在多个基准测试中,DeepSeek-V3 的表现超过了其他开源模型,并与领先的闭源模型(如 GPT-4o 和 Claude-3.5-Sonnet)相当。具体表现如下:

  • 知识类基准测试:在教育基准测试(如 MMLU、MMLU-Pro 和 GPQA)中,DeepSeek-V3 的表现优于所有其他开源模型,与 GPT-4o 和 Claude-Sonnet-3.5 相当。
  • 代码、数学和推理能力:在数学相关基准测试中,DeepSeek-V3 达到了非长链推理(CoT)模型中的最佳性能,甚至在某些基准测试中超过了 o1-preview。在编程竞赛基准测试(如 LiveCodeBench)中,DeepSeek-V3 的表现也优于其他模型。

关键结论

DeepSeek-V3 的主要贡献包括:

1. 架构创新:引入无辅助损失的负载平衡策略和多 token 预测训练目标,提升了模型性能。

2. 高效的预训练:通过 FP8 混合精度训练和算法、框架、硬件的协同设计,实现了高效的训练,降低了训练成本。

3. 知识蒸馏:从 DeepSeek-R1 系列模型中蒸馏推理能力,显著提升了模型的推理性能。

4. 性能表现:在多个基准测试中,DeepSeek-V3 的表现优于其他开源模型,并与领先的闭源模型相当。

限制与未来方向

尽管 DeepSeek-V3 在性能和训练效率方面表现出色,但在部署方面仍存在一些限制,例如推荐的部署单元较大,可能对小型团队造成负担。未来,研究者们计划继续优化模型架构,扩大训练数据规模,并探索更全面的模型评估方法,以推动模型能力的进一步提升。

本文系转载,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系转载前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 引言
  • 2. 方法
  • 3. 实验
  • 4. 讨论
  • 5. 结论、局限性和未来工作
  • 《DeepSeek-V3 技术报告》
    • 研究背景
    • 研究方法
    • 实验与结果
    • 关键结论
    • 限制与未来方向
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档