Cline社区发现了个有趣的工作流:
用DeepSeek R1(0.55美元/百万token)做规划,用Claude 3.5 Sonnet写代码。成本直接降低97%,质量还不打折。
这不是设计出来的,是开发者们自发摸索出来的模式。R1在推理规划上特别强,Sonnet更擅长写代码。
开发者们不纠结"选边站",而是发现了每个模型的长处。
还有人提到Cline的速率限制问题:
官方给出的建议是:使用 OpenRouter 进行辅助,你可以使用它来完全绕过速率限制。
其次,R1和Sonnet的组合,创造了新纪录。
在Aider的多语言测试中,这对搭档达到了64.0%的SOTA。不只是超越了o1,还把成本降低了14倍。
AI编程一个模式是:不是追求全能的单一模型,而是让专精的模型各司其职。成本降低14倍,性能反而提升,这就是协同效应的魅力。
我以前写过这种双模式架构:Aider(已升级):Aider利用双模型架构做到85% SOTA得分!(架构师/编辑师助你实现编程新高度)
分工很清晰:R1负责思考和设计,Sonnet专注写代码。
得分如下:
64%R1+Sonnet 、62%o1 、57%R1 、52%Sonnet 、48%DeepSeek V3 (左边得分)
其次,o1单独使用和o1+Sonnet配对的结果差不多,后者并没有带来更好的效果提升。
关于R1被创造出来后,网上有激烈的讨论:
Deepseek创始人梁文锋管理着70亿资产的量化基金。但他把LLM当作"副业",却搅动了整个AI行业。
有人说只花了600万美元,有人说3亿美元。但对管理着70亿资产的基金来说,这都不是问题。
更重要的是GPU资源。在美国限制芯片之前,他们已经储备了大量H100。这不是运气,是战略眼光。
有人质疑,有人赞叹。但事实是,一个"副业"正在改变行业格局。量化基金的技术积累、资源优势,加上开源的勇气,这注定不是一个普通的故事。
Meta员工的爆料很有趣。R1训练耗费550万美元,就让Llama4坐不住了。V3就让他们恐慌,R1一出更是不敢说话了。
网上梗图:DEEPSEEK 能够在山洞里用一箱废料建造出这个:
有人觉得DeepSeek定价太低是在打心理战,要打击OpenAI的利润。但有人评,其实开源模型就是这么低的成本。
Meta 5位研究员年薪,可能真的比V3的训练成本还高。这种反差,让人忍俊不禁。
有意思的是,Meta一直标榜开源。现在开源的力量反过来冲击他们,倒是有点戏剧性。
R1开源后,创业团队可以做小而美的模型,可以快速迭代,不用被OpenAI、Anthropic、Google绑架。
图灵奖得主LeCun 评DeepSeek的成功,站在了Llama的肩膀上,又贡献了新的创意。这就是开源的魅力:共享、创新、再共享。不是地域的超越而是开源超越闭源。
有网友评论:R1,不是简单的模仿追赶。Llama比GPT-3晚了3年都没追上,但R1只用了2个月就能和o1过招。性能相当,价格却只有1/25。
更有意思的是时机:其他大实验室还没反应过来,R1就来了。每百万token才0.55美元输入,2.19美元输出,连o1-mini都比不过这个价格。
速度快(71 token/秒),还用<thinking>标签包装推理过程,让开发者能更好地控制输出。
这是不是说明,AI领域的技术壁垒,资金门槛,经验积累,其实都被高估了?也许,需要考虑是资源的堆砌还是在于思路的突破。
DeepSeek R1发布4天了,大家都在用它做什么?
而且有不少人测试R1写作能力非常强,尤其擅长仿写,我也试了一下,请看这篇文章(人工 + R1 + 设计AI提示词):
Grok 3.0 即将发布!或将成为世界上最强大的 AI。预训练现已完成,计算能力比 Grok 2 强 10 倍。
DeepSeek R1 是 100% 开源的,比 OpenAI o1 便宜 96.4%,但性能相似。
以上。