不知道什么时候开始,我对于收入的思考方式变成了:今天我又赚了多少个token。长期速试AI提效产品的买购,会导致token花费苦来兮苦,本文结合我的实际经验和小伙伴们交流总结了十条建议,能够帮大家节省token,提高使用AI工具帮助学习工作的效果,物尽其用。同时还有一个密不外传的建议可以让你免费高速使用最新最diao的模型。省了就是赚了,听懂掌声。
关注腾讯云开发者,一手技术干货提前解锁👇
前言
在我们团队中,使用AI工具似乎成为了一种时尚潮流。
ChatGPT订阅已经是标配,Claude Code、Cursor、Perplexity Pro 更是让人垂涎欲滴。
以最快的速度试验各种各样新鲜的AI提效工具成为了日常攀比的潮流单品:
由于长期速试导致的买购
但是这种长期速试导致的买购,会花费非常多的小钱钱,会让收入苦来兮苦。
如果不会使用模型,模型运行效果差,带有大量无用上下文token,会白白浪费token数。
同时,使用外部模型编写内部代码是危险的,不符合规定的。同时如果不知道工作中怎么物尽其用这些大模型,就会让每个月的订阅白白打水漂。
那到底有没有什么办法可以节省token、让模型发挥的更好,同时工作中能用的场景又有哪些呢?
我这里有一些建议。
帮助日常工作和学习的建议
2.1 编写脚本工具和业余学习工具
我们日常开发过程中,常常需要编写一些脚本工具来帮助我们处理很多繁杂的工作。这些代码和我们的工作代码无关,不会进入我们的主工程,这就非常适合使用Cursor、CodeBuddy等Agent编码模式非常好用的开发工具。
但是请注意,仔细Review产生的代码。
绝对不要在其中hardcode任何密钥,可以要求他产生可以输入配置的代码,你在实际执行的时候作为入参输入。
(注意:也不要在外部工具直接执行这些脚本)
也更要警惕它是否产生了一些可能有后门的代码,导致执行这个脚本的时候会上传你的信息到外部的服务器。
在我的工作流,我通常是直接编写一个markdown文件:
完整的描述我要的工具,然后在让它来读取执行:
2.2 分析开源代码
我们在工作中为了学习充电,通常要阅读大量开源代码。这些开源代码直接读起来通常比较痛苦。
这里非常推荐订阅Claude Code,使用 Opus 这种超长上下文的模型,将其转换为介绍说明书,效果绝佳。
同时这些说明书一旦生成了,就不用反复生成了,小伙伴们可以互相共享输出结果,非常省钱。我自己白嫖了许多团队其他小伙伴生成的学习资料。
2.3 “偷”Prompts
很多团队都有内部部署、安全可控的大模型使用,但通常不是业界最领先的模型,我也可以利用外部大模型来更好的使用我们内部的模型。
一些最顶尖的大模型和其相关的工具通常了解自己的提示词,我们可以向他请教生成我想要的提示词,然后应用在我们自己的模型上,非常有效果。
一个成功的使用案例
2.4 分析BUG和请教问题
我们通常可以使用外部大模型来分析我们工程中遇到的局部BUG,或者请教一些不了解的技术问题。强烈建议使用ChatGPT来完成。
我自己体验最好的还是ChatGPT o3 和 o4-mini-high 模型:
这有一些好处:
分析BUG和请教问题通常不需要强大的 Agent 编码能力,而是需要对问题更深入的思考和广阔的知识面。
同时ChatGPT Plus的订阅,对话次数个人体验下来基本上是用不完的,而Cursor等工具通常都是按Token计费的很容易就用完了。
同时,如果你需要系统化的总结,还可以使用Deep Research功能,这个功能也帮助我完成了这篇文章:
另外,在分析BUG的时候,一定不要把代码直接发给外部模型。通过人工抽象问题、提供公开的API文档、伪数据替代、最终提供最小的脱敏代码或伪代码给他,这样不仅能够让他专注于解决问题,同时也避开了泄漏数据的问题。
如何人工抽象,是由开发者手工将代码逻辑抽象为高层描述或伪代码,然后提供给模型。这相当于人类先做“一次翻译”,将复杂实现用自然语言或简单伪代码描述出来,避免直接暴露源码。例如,可以描述算法的流程:“先进行A排序,然后对结果执行B操作…”,而不提及具体变量名和实现细节。模型据此理解需求,再提供解决方案或建议。
2.5 搭建环境
当我要开坑一个Python或者Node工具的时候,搭建环境是最让我头疼的了。尤其是前端技术栈的环境工具太杂乱了。这种时候就非常适合使用Cursor等工具先帮你把环境配置好。效果非常拔群:
这里不涉及代码,自然没有泄露风险。
2.6 开启隐私模式
在不使用Cursor工具来编写内部代码的前提下,仍然提示大家默认开启Cursor的隐私模式。双重保险。
节省Token和提升效果的建议
3.1 清晰的提示词技巧
让大模型能够一次完成工作,而不需要频繁返工其实是最省的。这里有很多技巧:
比如与其写“实现一个函数处理 X”,不如详细说明“请编写一个 Python 函数,输入一个整数列表,返回其中的所有偶数”。清晰的目标描述有助于模型理解意图,即使模型有时输出不完全符合预期,也可以通过逐步添加细节来迭代完善提示。实际经验表明,“提示越具体和详细,AI产出的代码往往越高质量”。
同时要提供充分的上下文,LLM 对所给上下文非常敏感。确保在提示中提供完成任务所需的背景,如相关代码片段、数据结构说明或函数的用途描述等,以便模型更好地理解问题。
虽然很多观点认为中文和英文现在在大模型的效果都一样好了,但是其实我自己实测看来英文的效果还是略胜一筹。因此我通常会使用英文来编写Prompts。
为了方便我编写日常Prompts,我甚至写了个调用大模型来做即时翻译的H5软件:
3.2 利用缓存
开发者会多次询问类似的问题或让模型对同一段代码反复改进。为避免每次都从零开始处理相同输入,可以对模型调用结果进行缓存。比如Cursor就应该已经使用了这个方法,你在他的要债单上可以明确看到Cache的迹象。这部分花费会明显打折。
3.3 要求良好拆分模块
这是一个救命技巧,我通常会让大模型帮我编写一个巨大的脚本。当我还是一个小白的时候,我就直接让它写。但写时一时爽,修改火葬场。
我发现模型在处理超大文件的时候,因为上下文太长了,开始不停的沉浸在思考中,并且不断地出错。
本来文件就够大了,它再出错,你再顶嘴,它还要把你之前的说的话重新看一遍,Token如流水一般哗哗地消费。
模型爹,我真的养不起你了,我再也不顶嘴了。
这时,我发现了魔法咒语:
please ensure good module separation and design
这时,agent会良好的把每个功能拆分成不同文件。
如果你再要求他打充分日志和单元测试,你就能够根据日志和测试结果很快定位到出问题的模块。
这样,每次新开一个对话清除上下文,并只提供给他出问题的文件,就会非常省!
我要零元购!
4.1 使用 CodeBuddy 国际版、免费享用最牛逼的模型
感谢CodyBuddy团队,我有幸获得了CodyBuddy 国际版的内测权限,应该是获得了30天完全免费的使用权限。
支持的模型非常高级:
这几天下来,应该至少干出几十美元出去,太爽了,长期爽试。
综合体验下来非常流畅,除了极少数几次用的太猛了导致请求失败,但是CodeBuddy团队很快响应扩容👍👍👍,以后就再没发生过了。
Agent Code 体验非常好,总的来说绝不比Cursor差,有两点我体验下来非常值得表扬。
Plan Mode
会自动创建一个计划 Prompts Markdown,然后按照计划一条一条的执行,在完成耗时超长的编码工作中表现非常好。
Boost Prompt
会自动帮你优化提示词,这个功能和前面提到的“偷prompts”有异曲同工之妙。
希望CodeBuddy再接再厉,早日干翻 Cursor、Claude Code 成为宇宙最强!
-End-
原创作者|高向孚