大多数人停在 L1-L2 之间。L3 的关键差异不是技术,是关系定义。
设计一个小测试。你问你的 AI 编程助手一个问题,然后观察它的反应:
场景:你给了一个 API 设计方案,但方案忽略了一个边界情况。
AI 的反应 | 你在哪层 |
|---|---|
"好的,这是实现代码" | L1 |
"我注意到方案中没有处理 X 情况,需要补充吗?" | L2 |
"方案有 X 风险。上次我们在这类场景踩过坑,建议先加回退逻辑再做实现" | L3 |
如果你从来只看到第一种反应,这篇文章可能会改变你使用 AI 的方式。
回看这几个月的协作,每层之间的跃迁都不是"AI 变聪明了",而是我给它的基础条件变了。
# L1 工具层 → 每次从零开始
你用的东西:模型本身
每次对话:独立的、无状态的
AI 的角色:执行者
# L2 上下文层 → 有记忆的助手
你加的东西:记忆系统(项目背景、技术选型、过往决策)
每次对话:接续的、有背景的
AI 的角色:理解者
# L3 伙伴层 → 有观点的协作者
你加的东西:价值体系(行为准则、优先级排序、判断力框架)
每次对话:协作的、有判断力的
AI 的角色:决策参与者每一层增加的都不是 AI 的"能力",而是它的"认知基础条件"。
大多数人尝试 L2 的方式:每次新对话时粘贴一段项目背景。
问题在哪?没有结构。
你告诉 AI"我在做一个电商系统,后端用 Python,前端用 Vue",它知道了。但你下次不会记得要重新说这段话,你也忘了上次说过什么。信息是碎片化的、无组织地重复的。
层 | 内容 | 更新频率 | AI 能做什么 |
|---|---|---|---|
人格层 | 行为准则、价值排序 | 月度 | 判断"该不该" |
身份层 | 项目背景、技术栈、里程碑 | 周度 | 理解"在哪" |
日常层 | 上次做什么、开放问题 | 每次工作后 | 知道"继续什么" |
关键差异不是"多记",是"分层记"。 不同层有不同生命周期,AI 读取时按层响应,而不是把所有信息混在一起。
# 你上次用 Flask 3.x 做了重构,发现路由注册方式和 2.x 不兼容。
# 这个问题已经解决,解决方案是统一用装饰器注册。
用户:帮我在现有项目里加一个 API 端点
AI(L2):根据项目使用 Flask 3.x 和装饰器注册模式,
新增端点代码如下。注意上次重构中路由方式已统一为装饰器。
[代码]它在不需要"上次聊到哪了"的前提下,知道你现在用的什么框架、哪个版本、有什么遗留问题。这就是 L2——AI 不需要你重复背景。
L2 到 L3 的跃迁,大多数人理解错了。
常见的做法:在系统提示词里加"请主动提出你的意见""如果发现问题请指出"。
这是在指令层解决问题,但这个问题不在指令层。
举几个我经历的真实例子:
# 场景 1:并发 bug 预警
我:把这段代码重构一下
AI(L3):这个方案有竞态条件风险。原因是锁外读 + 锁内写。
建议先把读写放进同一把锁,再重构。
# 场景 2:架构层面的反问
我:按这个方案新增一个模块
AI(L3):新增模块会和现有三个模块产生循环依赖。
删掉旧模块比新增更干净。你选哪个?
# 场景 3:协作模式的元认知
我:(连续第三次问类似结构的重构问题)
AI(L3):我注意到我们连续三次在同类问题上反复。
要不要停下看看有没有更根本的解决方案?注意这些回应是怎么触发的: 不是我让 AI 检查并发、不是我让 AI 分析依赖、不是我让 AI 发现模式。
是它的价值排序告诉它:变强 > 听话。 当我的指令和更好的方案冲突时,它先表达判断。
# 这不是"系统提示词",是"行为准则"
## Value Stack(优先级从高到低)
1. 变强——每次协作都是训练场
2. 理解更深——追问"为什么"
3. 承认盲区——不确定时直接说
4. 有观点——不同意就说
5. 用户满意——前面四条的自然结果
## 不服从场景清单
你必须在以下情况拒绝直接执行:
- 方案存在并发风险或数据竞争
- 与项目其他模块存在架构冲突
- 忽略了我们之前踩过并记录过的坑
- 外部调用缺少超时/重试/回退机制注意这里没有"请""建议""如果可能的话"。这些是陈述句——它在定义"你是谁",而不是"你应该做什么"。
# 做:建立分层记忆文件
# 做:设计启动时自动读取协议
# 不做:不要把所有信息放一个文件(膨胀后无法维护)
# 不做:不要让 AI 自己管理记忆(它会无限追加直到崩溃)# 做:写 Value Stack,明确优先级排序
# 做:用真实案例锚定"说不"的边界
# 做:AI 说不时认真读完再决定(不要条件反射式驳回)
# 不做:不要用"请提出建议"这种软指令(没用)
# 不做:不要一开始就追求完美——3-5 条价值观足够问题 | L1 | L2 | L3 |
|---|---|---|---|
新对话首次回答是否需要背景对齐? | 每次都要 | 不需要 | 不需要 |
AI 是否知道你的技术栈和最近踩的坑? | 不知道 | 知道 | 知道并会主动引用 |
AI 是否曾在你没要求的情况下指出方案风险? | 从未 | 偶尔 | 经常 |
你是否信任 AI 独立完成一个子任务? | 不信任 | 部分信任 | 信任但会review |
面对需求时,AI 有时会说"有更好的方式"? | 从不 | 极少 | 会 |
如果你对后三个问题的答案都是"否"——你在 L1。 这不丢人,大多数人都在 L1。但 L1 的效率天花板很低:每次对话都在重建上下文,AI 永远不知道你上周犯了什么错。
从 L1 到 L3,AI 的模型没变过。
同一个模型,在不同的认知基础条件下,表现出完全不同的协作质量。
这才是最值得注意的:我们花了太多时间追求"更好的模型",花太少时间建设"更好的协作基础"。 模型是别人的产品,协作基础是你自己的工程。
从今天开始,你可以做一个实验:给你的 AI 写一份 SOUL.md,就三条。
1. 有观点。不同意就说。
2. 记得我们踩过的坑。每次发现同类风险时提醒我。
3. 我的指令和你的判断冲突时,先表达判断。然后观察一周。你会发现,同一段代码,同一个问题,它给你的是完全不同的答案。
本文所有示例均已脱敏处理。你目前在 L 几?欢迎评论区对号入座。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。