部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >DeepSeek R1发布4天了,大家都在用它做什么?R1+Sonnet 在Aider获得 64.0% SOTA得分!

DeepSeek R1发布4天了,大家都在用它做什么?R1+Sonnet 在Aider获得 64.0% SOTA得分!

作者头像
AI进修生
发布2025-02-03 21:41:39
发布2025-02-03 21:41:39
1.5K0
举报
文章被收录于专栏:AI进修生AI进修生

Cline社区发现了个有趣的工作流:

用DeepSeek R1(0.55美元/百万token)做规划,用Claude 3.5 Sonnet写代码。成本直接降低97%,质量还不打折。

这不是设计出来的,是开发者们自发摸索出来的模式。R1在推理规划上特别强,Sonnet更擅长写代码。

开发者们不纠结"选边站",而是发现了每个模型的长处。

还有人提到Cline的速率限制问题:

官方给出的建议是:使用 OpenRouter 进行辅助,你可以使用它来完全绕过速率限制。

其次,R1和Sonnet的组合,创造了新纪录。

在Aider的多语言测试中,这对搭档达到了64.0%的SOTA。不只是超越了o1,还把成本降低了14倍。

AI编程一个模式是:不是追求全能的单一模型,而是让专精的模型各司其职。成本降低14倍,性能反而提升,这就是协同效应的魅力。

我以前写过这种双模式架构:Aider(已升级):Aider利用双模型架构做到85% SOTA得分!(架构师/编辑师助你实现编程新高度)

分工很清晰:R1负责思考和设计,Sonnet专注写代码。

得分如下:

64%R1+Sonnet 、62%o1 、57%R1 、52%Sonnet 、48%DeepSeek V3 (左边得分)

其次,o1单独使用和o1+Sonnet配对的结果差不多,后者并没有带来更好的效果提升。

关于R1被创造出来后,网上有激烈的讨论:

Deepseek创始人梁文锋管理着70亿资产的量化基金。但他把LLM当作"副业",却搅动了整个AI行业。

有人说只花了600万美元,有人说3亿美元。但对管理着70亿资产的基金来说,这都不是问题。

更重要的是GPU资源。在美国限制芯片之前,他们已经储备了大量H100。这不是运气,是战略眼光。

有人质疑,有人赞叹。但事实是,一个"副业"正在改变行业格局。量化基金的技术积累、资源优势,加上开源的勇气,这注定不是一个普通的故事。

Meta员工的爆料很有趣。R1训练耗费550万美元,就让Llama4坐不住了。V3就让他们恐慌,R1一出更是不敢说话了。

网上梗图:DEEPSEEK 能够在山洞里用一箱废料建造出这个:

有人觉得DeepSeek定价太低是在打心理战,要打击OpenAI的利润。但有人评,其实开源模型就是这么低的成本。

Meta 5位研究员年薪,可能真的比V3的训练成本还高。这种反差,让人忍俊不禁。

有意思的是,Meta一直标榜开源。现在开源的力量反过来冲击他们,倒是有点戏剧性。

R1开源后,创业团队可以做小而美的模型,可以快速迭代,不用被OpenAI、Anthropic、Google绑架。

图灵奖得主LeCun 评DeepSeek的成功,站在了Llama的肩膀上,又贡献了新的创意。这就是开源的魅力:共享、创新、再共享。不是地域的超越而是开源超越闭源。

有网友评论:R1,不是简单的模仿追赶。Llama比GPT-3晚了3年都没追上,但R1只用了2个月就能和o1过招。性能相当,价格却只有1/25。

更有意思的是时机:其他大实验室还没反应过来,R1就来了。每百万token才0.55美元输入,2.19美元输出,连o1-mini都比不过这个价格。

速度快(71 token/秒),还用<thinking>标签包装推理过程,让开发者能更好地控制输出。

这是不是说明,AI领域的技术壁垒,资金门槛,经验积累,其实都被高估了?也许,需要考虑是资源的堆砌还是在于思路的突破。

DeepSeek R1发布4天了,大家都在用它做什么?

1、使用 DeepSeek R1 在大约一小时内构建 Perplexity 克隆,无需编写任何代码:

2、构建一个 RAG 应用程序,使用本地运行的 DeepSeek R1 与你的文档进行聊天:

3、在 WebGPU 上的浏览器中本地运行 DeepSeek-R1-Distill-Qwen-1.5B:

4、DeepSeek 的原始思维链令人着迷,读起来真的像一个人在大声思考。迷人而又奇特:

而且有不少人测试R1写作能力非常强,尤其擅长仿写,我也试了一下,请看这篇文章(人工 + R1 + 设计AI提示词):

Grok 3.0 即将发布!或将成为世界上最强大的 AI。预训练现已完成,计算能力比 Grok 2 强 10 倍。

5、R1在家用消费级硬件 DeepSeek-R1 671B 在 2 M2 Ultras 上运行速度快于读取速度。

6、通过提取 DeepSeek-reasoner 中的推理,使其他模型更加智能

7、在家使用 AGI 在,7 台 M4 Pro Mac Mini + 1 台 M4 Max MacBook Pro 上运行 DeepSeek R1

8. 直观的解释了勾股定理。

9、在手机本地完美运行

10. 学习强化学习

DeepSeek R1 是 100% 开源的,比 OpenAI o1 便宜 96.4%,但性能相似。

以上。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI进修生 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、使用 DeepSeek R1 在大约一小时内构建 Perplexity 克隆,无需编写任何代码:
  • 2、构建一个 RAG 应用程序,使用本地运行的 DeepSeek R1 与你的文档进行聊天:
  • 3、在 WebGPU 上的浏览器中本地运行 DeepSeek-R1-Distill-Qwen-1.5B:
  • 4、DeepSeek 的原始思维链令人着迷,读起来真的像一个人在大声思考。迷人而又奇特:
  • 5、R1在家用消费级硬件 DeepSeek-R1 671B 在 2 M2 Ultras 上运行速度快于读取速度。
  • 6、通过提取 DeepSeek-reasoner 中的推理,使其他模型更加智能
  • 7、在家使用 AGI 在,7 台 M4 Pro Mac Mini + 1 台 M4 Max MacBook Pro 上运行 DeepSeek R1
  • 8. 直观的解释了勾股定理。
  • 9、在手机本地完美运行
  • 10. 学习强化学习
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档