
Google正式推出Gemini专属MCP服务器,编码助手可以一条指令直连最新API文档,不用再把文档内容塞进上下文窗口。对开发者来说,这意味着更少的Token消耗、更准确的代码生成、更顺滑的开发体验。MCP正在成为AI编码助手的标准连接协议。
前几天在用Gemini CLI写代码的时候,碰到一个老问题:它给我生成的API调用方式是三个月前的旧版本。
我只能手动去查最新文档,然后把相关内容复制粘贴到对话里,让它重新生成。一来一回,浪费了几千个Token不说,体验也很割裂。
然后我看到Google发了一个东西——Gemini API Docs MCP Server。
试了一下。说实话,爽到了。
如果你还没听过MCP(Model Context Protocol),一句话解释:
它是AI助手连接外部工具和数据源的标准协议。
以前AI编码助手想获取外部信息(比如API文档),只能靠你手动把内容喂进去,或者靠它自己上网搜(经常搜到过时的)。
MCP改变了这个逻辑:AI助手通过MCP协议直接连接到数据源,需要什么信息自己去拿,不用你当中间人。
打个比方:
Google推出的是一个官方托管的MCP服务器,地址是gemini-api-docs-mcp.dev。
它的作用很简单:让你的编码助手直接连上Gemini API的最新文档。
在Gemini CLI里,你只需要在~/.gemini/settings.json里加一段配置:
{
"mcpServers": {
"gemini-docs": {
"url": "https://gemini-api-docs-mcp.dev/sse"
}
}
}搞定。不用装额外依赖,不用配Docker,不用申请额外的API Key。
如果你用的是Claude Code,配置也类似——MCP是通用协议,不锁定平台。
配置好之后,你的AI编码助手在写代码时会自动查询最新的Gemini API文档。
比如你说"帮我用Gemini API做一个图片生成功能",助手不再是凭记忆(可能过时的训练数据)来写代码,而是:
区别非常直观:从"凭记忆猜"变成"看着文档写"。
以前要让AI理解某个API怎么用,你得把整段文档粘贴到对话里。一个复杂API的文档可能有几千到上万Token。
现在AI通过MCP按需查询,只拉取它需要的那一小段信息。Token消耗从"整页文档"降到"几个关键字段"。
对于用按量付费的开发者来说,这是实打实省钱。
AI编码助手最让人抓狂的问题之一就是用旧API写代码。模型的训练数据有截止日期,三个月前还对的API调用方式,今天可能已经改了参数名、换了认证方式。
MCP直连文档后,这个问题从根源上解决了——它看到的永远是最新版本。
虽然Google这次推的是Gemini API的MCP服务器,但MCP是开放协议。社区已经有了大量MCP服务器,覆盖:
也就是说,你的AI编码助手可以同时连接多个MCP服务器,变成一个能访问所有工具和数据源的全能助手。
Gemini API文档只是开始。Google已经或即将推出的官方MCP服务器覆盖:
服务 | 用途 |
|---|---|
BigQuery | 直接查询企业数据,不用搬到上下文窗口 |
Google Maps | 地理位置和路线查询 |
GKE(Kubernetes) | 集群管理和部署 |
Firebase | 应用后端管理 |
Cloud Run | 无服务器部署 |
Cloud Storage | 文件存储操作 |
Workspace | 文档/表格/邮件集成 |
Cloud SQL/Spanner | 数据库操作 |
Pub/Sub | 消息队列 |
Cloud Monitoring | 监控告警 |
24个以上的官方MCP服务器,这是目前所有AI公司里最大的官方MCP生态。
Google的意图很明确:让Gemini成为开发者工具链的中心节点——不是什么都自己做,而是通过MCP连接一切。
如果你稍微退一步看,会发现MCP这个协议正在快速成为AI工具连接的事实标准:
这跟HTTP之于Web、SQL之于数据库是一个逻辑:一旦连接协议标准化,生态就会加速膨胀。
对开发者来说,现在学MCP、用MCP、甚至做MCP服务器,是一个非常值得投入的方向。
我把Gemini Docs MCP接上Gemini CLI之后,用了一周。几个直观感受:
准确性明显提升。 以前写Gemini API相关代码,十次有三四次要手动修正过时的参数。接上MCP之后,基本不用改了。
对话轮次减少。 以前要先解释"这个API的最新用法是这样的",现在不用了,它自己知道。一个需求从三四轮对话压缩到一两轮。
Token消耗体感降了一半以上。 没有精确统计,但以前经常要粘贴大段文档,现在完全不需要了。
唯一的不便: 第一次配置需要改settings.json,对非技术用户有一点门槛。但对开发者来说基本无感。
Google官方推荐把MCP服务器和Gemini API Skills一起用:
两者配合,等于给你的编码助手装上了"实时知识库"+"经验手册"。
说到底,Google推MCP服务器这件事,表面上是一个开发者工具更新,实际上是在说:
AI编码助手的竞争,正在从"模型本身有多聪明"转向"模型能连接多少外部工具和数据"。
模型的能力会趋同——GPT、Claude、Gemini的代码生成质量差距越来越小。但谁的工具连接生态更丰富、更准确、更省Token,谁就在开发者体验上胜出。
MCP就是这场生态战的基础协议。而Google用24+官方服务器,正在抢占这个生态的制高点。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。