自从 OpenAI 在 2023 年推出函数调用(Function Calling),我一直思考,咋能真正解锁 AI Agent与工具的生态系统。随基础模型越来越智能,AI Agent与外部工具、数据和 API 的交互方式却变得越来越碎片化——开发者需针对每一个系统单独编写业务逻辑,让Agent能够适配不同环境。
显然,我们需要一个标准化的接口来执行任务、获取数据并调用工具。在互联网时代,API 让不同软件之间可以相互通信,成为了软件的通用语言。但对 AI 模型,目前还缺这样的标准。
2024 年 11 月,模型上下文协议(Model Context Protocol,MCP)发布,迅速引起关注,被认为可能成为这一问题的解决方案。本文探讨:
MCP 是一种开放协议,旨在让不同系统能够为 AI 模型提供可泛化的上下文信息。它规定了AI Agent如何调用外部工具、获取数据,并与服务交互。
Resend MCP 服务器可以同时与多个 MCP 客户端交互,使其具备邮件发送能力。MCP 灵感源于语言服务器协议(LSP,Language Server Protocol)。在 LSP 中,当用户在代码编辑器中输入时,客户端会向语言服务器请求自动补全建议或代码诊断。
MCP进一步拓展,采用面向 AI Agent的执行模式:
如有够多的 MCP 服务器,用户就能将任何 MCP 客户端变成“万能应用”。
作为一个代码编辑器,同时也是高质量 MCP 客户端。安装不同 MCP 服务器,可变身为:
更强大的,用户可组合多个 MCP 服务器,解锁新应用场景。如Cursor中,用户可:
这种跨工具协作的能力,正是 MCP 带来突破。
对开发者,MCP 一大价值是减少切换工具的时间。
“我不想为做某个任务而离开 IDE。”
MCP 服务器正满足需求,如:
MCP 还能帮助 AI Agent动态获取代码相关的上下文,如:
即开发者可更少写模板代码,更多专注于业务逻辑。
尽管 MCP 目前在开发者社区最受欢迎,但它的潜力远不限于技术领域。如:
社区还正在开发适用于 Unity 和 Unreal Engine 的 MCP 服务器,AI 生成 3D 内容的流程正在变得越来越完善。
MCP生态仍处早期阶段,主要趋势:
目前MCP服务器主要1对1,未来需支持多个用户同时访问,尤其SaaS场景。
MCP 目前没有标准的身份验证机制,开发者需要自己实现 OAuth 或 API 令牌管理
MCP 目前的权限是基于会话的,未来需要更细粒度的访问控制。
未来 MCP 可能需要一个集中式网关,类似 API 网关,管理身份验证、授权、流量控制等功能
MCP 服务器目前需要手动配置,未来可能会有一个类似 npm 或 RapidAPI 的 MCP 服务器注册中心,让 AI Agent自动发现并集成工具。
MCP目前生态很像2010 年代的 API 生态——新颖但仍处早期阶段。若MCP 成为 AI Agent的标准接口,会咋样?
MCP 正在重塑 AI Agent生态,但它的未来取决于开发者如何解决当前的基础问题。如果一切顺利,MCP 可能会成为AI Agent调用工具的默认接口,解锁全新的自主、多模态、深度集成的 AI 体验。
本文已收录在Github,关注我,紧跟本系列专栏文章,咱们下篇再续!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。