最近看到很多的文章都在写“RAG已死,上下文为王”,YB上也非常多的相关的内容。这让我这个刚接触AI应用的初学者感到非常疑惑。在阅读 https://github.com/davidkimai/Context-Engineering
后,我对大模型应用有了不一样的理解。
先说结论:RAG
与 Context-Engineering
只是概念上的混淆。只是RAG
并不能准确描述大模型应用技术,采用上下文工程这个更精确、更高价值的概念来代替。
那么什么是上下文工程?下面一张图就能说明上下文工程。在https://github.com/davidkimai/Context-Engineering
中,将上下文工程以生物学隐喻的方式进行展开,图也是基于相关文章进行整理绘制的。
"Context engineering is the delicate art and science of filling the context window with just the right information for the next step." — Andrej Karpathy "上下文工程是一门精妙的艺术和科学,为下一步填充恰当的信息到上下文窗口中。"
上下文是在推理时提供给 LLM 的完整信息负载,包括模型为合理完成给定任务所需的所有结构化信息组件。废话不多说,先上图:
完成一个任务所需要的最基本的,由于提供信息过少,模型难保持一致性。 prompt
通过小样本学习的方式做到更高精度和一致性,同时借助外部示例数据库还能实现动态分子(不同任务检索示例数据库提供最相关的示例)。
默认情况下大模型不具备记忆功能,大模型会忘记先前交互中的信息导致用户体验不连贯
直接将所有历史消息则会导致上下文窗口被填满,因此合理的记忆管理策略十分重要。
上下文器官协调多个LLM细胞来解决任何单个上下文都无法解决的问题。由指挥者、共享记忆、以及专业细胞通过相应的合适所需应用的控制流模式结合组成。
各司其职的器官共同组成一个完整的认知系统。
本文参考:https://github.com/davidkimai/Context-Engineering
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。