首页
学习
活动
专区
圈层
工具
发布

Context (上下文) vs Prompt(提示) Engineering,该如何理解?

   Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建大模型应用架构演进技术:Context Engineering vs Prompt Engineering。

   在大型语言模型(LLM)兴起的早期,构建 AI 应用更像是一场“炼金术”实验。开发者们围绕一个核心 API 端点,通过反复调试和优化输入文本——即所谓的“提示工程”(Prompt Engineering),试图从模型这个神秘的“黑箱”中召唤出理想的结果。这种方式直接、灵活,也确实催生了无数令人惊艳的创意原型。

   然而,当这些原型试图进入生产环境时,脆弱性便无处遁形。缺乏模块化设计、扩展能力有限、可维护性低下,使得“提示驱动”的应用难以支撑企业级场景。这种局面颇似软件开发的早期阶段:所有逻辑都集中在一个巨大的主函数里,久而久之演变成难以维护的“单体应用”(Monolith)。

    为了突破这一瓶颈,一种新的设计思想逐渐浮现——“上下文工程”(Context Engineering)。不再将 LLM 视为应用的全部,而是将其纳入一个更大、更精心设计的系统架构中,成为其中的关键服务组件。这一转变,正如软件开发从单体到微服务的演进,标志着 AI 应用正步入一个更系统化、更工业化的时代。

01

  Prompt Engineering(提示工程)架构模式:“LLM-Centric”的单体应用

   Prompt Engineering 是一种通过设计与优化提示语(Prompt),引导 AI 模型生成特定响应的实践方法。这里的“提示”可以理解为给予 AI 系统的查询或指令,其作用在于促使模型产出更加准确、深入和相关的结果。

   与传统编程依靠精密算法来驱动逻辑不同,Prompt Engineering 更依赖于自然语言与上下文的表达,并非直接编写“指令集”,而是通过结构清晰、语义明确的输入来弥合 “人类意图”与“机器输出”之间的鸿沟。

   从架构的角度来看,Prompt Engineering 可以被视作一种“接口设计”:

在用户与模型之间,承担“语义适配层”的角色。

决定了系统如何理解需求,并影响了下游输出的质量与稳定性。

一份优秀的提示语不仅能驱动模型给出预期结果,更能在整个系统架构中起到“逻辑约束与信息编排”的作用。

   换句话说,Prompt Engineering 不仅是一种“语言技巧”,更是一种系统设计思维。其强调通过合理的输入结构,让复杂的模型能力在架构层面得到有效利用与管理。

   在基于 Prompt Engineering 的阶段,AI 应用大多呈现出一种“以 LLM 为中心的单体架构”(LLM-Centric Monolithic Architecture)。其架构可参考如下所示:

   基于上述架构特征分析,Prompt Engineering 主要体现在如下几个关键层面,具体可参考:

   1、强耦合(Tight Coupling)

   应用的业务逻辑、知识和交互方式,都被硬编码进一个冗长的提示词中。任何业务规则的变更,都意味着修改整个“超级提示”,牵一发而动全身。

   2、无状态(Statelessness)

   为了实现多轮对话,必须不断附加全部历史记录到新的提示中。这不仅增加成本,还受限于模型的上下文窗口,极易触发“遗忘”。

   3、可维护性差(Poor Maintainability)

  长达数千字的提示就像一段“意大利面条代码”。结构混乱、难以调试,团队协作更是困难重重。

   4、缺乏扩展性(Limited Extensibility)

  若要调用外部 API 或数据库,只能在提示中“描述”操作方式,既脆弱又不可控。

  因此,在此种架构下,Prompt Engineering 更像一个“文本巫师”:依靠经验打磨“黄金提示词”,但产出物终究脆弱,缺乏系统工程的鲁棒性。

02

Context Engineering(上下文工程)架构范式:面向服务的分布式设计

   随着 AI 应用逐步迈向规模化与工程化,仅依赖 Prompt Engineering 的“单体式”模式已难以支撑复杂业务需求。上下文工程(Context Engineering) 的出现,为 AI 应用引入了一种更贴近现代软件工程理念的范式。

   其借鉴了“微服务架构(Microservices Architecture)”思想,将庞杂的 AI 任务解构为一组可独立管理、松耦合的服务模块,再通过一个编排层(Orchestration Layer) 进行统一调度与治理。

   在这一范式下,系统的工作流程呈现出一种动态的、可编排的分布式形态,具体可参考如下架构示意图:

   即整个流程如下:

  1、用户请求 首先进入编排层。

  2、编排层负责进行 意图解析,明确用户的目标与任务类型。

  3、根据解析结果,它可能会按需调用以下服务:

检索服务(Retrieval Service):从向量数据库(Vector DB)中提取与用户请求相关的领域知识或文档,实现“长期记忆”的功能。

工具服务(Tool Service):封装外部 API(如 ERP、CRM 系统或搜索引擎),为模型提供“现实世界的手脚”。

状态管理服务(State Management Service):维护对话历史、任务上下文及用户偏好,形成“短期记忆”。

 4、编排层将上述信息动态整合,生成一个清晰、结构化的 上下文(Context)。

 5、该上下文被传递给 LLM 服务(LLM Service),模型在此情境下执行推理或生成。

 6、最终结果可经过 后处理(Post-processing),再返回给用户。

   整个过程,就像是一个高效的分布式管弦乐队:各服务组件犹如不同乐器,各司其职,确保每个部分在合适的时机进入,协同奏响整体的华丽乐章。

   更多内容可参考文章:

你所不了解的:上下文工程 (Context Engineering)

03

如何看待:Prompt Engineering(提示工程)vs  Context Engineering(上下文工程)

  Context Engineering 的崛起,并不意味着 Prompt Engineering 的消亡,而是其角色的演变与升华。在微服务架构中,Prompt Engineering 不再是构建整个应用的唯一手段,而是演变成了编排流程中每个节点的“配置语言”。具体:

查询重写提示 (Query Rewriting Prompt): 在调用检索服务前,需要一个提示来优化用户的原始问题,使其更适合语义搜索。

工具选择提示 (Tool Selection Prompt): 编排层需要一个提示,让LLM根据用户意图,从一系列可用工具中选择最合适的一个。

答案合成提示 (Answer Synthesis Prompt): 当从多个来源(RAG、API)获取信息后,需要一个最终的提示来指导LLM将这些零散信息,综合成一段通顺、完整的回答。

   这里的每一个提示都变得更短、更专注、目标更明确。它们成为了连接不同服务节点的“胶水代码”,其设计和优化依然至关重要,但难度和复杂度已大大降低。

   那么,Context Engineering 是如何驱动 Prompt Engineering 的呢?

   从架构视角来看,如下几个方面共同定义了 Context Engineering  的“系统角色”:不仅仅是提示优化的技术延伸,而 在架构层面为提示提供保护、组织、扩展与约束管理 的一整套方法论,从而使得 AI 应用能够在复杂环境中保持稳定性、清晰性与可扩展性。具体:

    1、保护提示(Protects your prompt)

   再优秀的指令,如果被埋没在第 12,000 个 Token 之后、夹在三份 FAQ 与一段 JSON 数据之间,最终也毫无意义。Context Engineering 的首要价值,就是在架构层面确保提示语始终处于核心与优先位置,而不会因上下文冗余而失效。

    2、围绕提示进行系统化组织(Structures everything around the prompt)

   在 Context Engineering 的设计中,所有外围模块——无论是记忆管理、检索机制,还是系统级提示(System Prompt)——其存在的唯一目的,都是为了保证提示的清晰性与优先级。换句话说,提示成为系统架构的“锚点”,所有组件围绕它展开协同。

    3、应对规模化(Handles scale)

   在复杂场景下,不必为每一个用户或任务重新设计一份提示。Context Engineering 通过注入结构化的上下文,使系统能够自动适配不同角色与任务需求,从而避免“手工堆叠式”的提示工程,真正实现架构层面的规模化与可复用性。

    4、约束管理(Manages constraints)

    面对 Token 限制、延迟要求与成本控制等现实约束,Context Engineering 提供了一种架构化的治理机制。它能动态决定哪些信息保留、哪些信息舍弃,确保在资源有限的前提下,提示依旧具备最优的上下文支撑。

   综上所述,从 Prompt Engineering 到 Context Engineering 的演进,本质上是 AI 应用开发从“工匠时代”迈向“工业化时代”的必然。它要求开发者完成一次深刻的身份转变:从一名专注于打磨“精美艺术品”(黄金提示词)的工匠,转变为一名能够设计和搭建复杂、可靠、可扩展系统(AI应用)的建筑师。

  这种转变的核心,是将控制权从 LLM 手中夺回,交还给系统架构。我们不再乞求 LLM “碰巧”理解我们的复杂意图,而是通过一个强大的外部系统,为其构建一个清晰、无歧义的“世界模型”,让它在这个我们亲手设计的舞台上,精准地完成我们赋予它的角色。这,才是构建下一代企业级智能应用的坚实基础和唯一路径。

   Happy Coding ~

Reference :

[1]    https://www.linkedin.cn/incareer/pulse/prompt-engineering-vs-context-ibrahem-amer-inzdf

  Adiós !

··································

对云原生网关 Traefik 技术感兴趣的朋友们,可以了解一下我的新书,感谢支持!

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O95YtkT4VFqfVNGQpsktOZUA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券