
大家好,我是 Ai 学习的老章。
继续讲讲本号老朋友——Ollama:
就像之前介绍的,最近的 Ollama 上线了越来越多的云端大模型
比如最近大火的顶级大模型 Google 的 Gemini 3 Pro:
国内免费使用 Gemini 3 Pro,最简单的方式是 Ollama

官方特别说明:云端模型仅在 Ollama 的云平台上可用,运行时会明确显示正在连接到 Ollama 的云平台。这是与 Google 合作,使用 Google Cloud 提供的服务。
还有云端运行我之前特别喜欢、强烈推荐过的国产大模型 Kimi K2 Thinking:

相关阅读:
截止发文,它支持的云端☁️顶级大模型还有:GLM-4.6、MiniMax-M2、DeepSeek-V3.1:671B 等等
Ollama 的初衷是让 AI 能够像普通软件一样本地运行,很多人特别喜爱它的纯粹:
看到 Ollama 开始搞云端,大家难免担心

我倒觉得此举甚好,毕竟本地部署大模型这事儿是有天花板的,本身就很小众且问题多多:
❌ 硬件门槛高 - 大模型需要昂贵的 GPU(70B+ 模型可能需要 48GB+ VRAM) ❌ 性能受限 - 推理速度取决于本地硬件 ❌ 准确性问题 - 量化后的小模型可能不如云端大模型准确 ❌ 维护成本 - 需要自己管理环境、更新模型
对于绝大多数用户,要在本地运行这些 SOTA(State of the Art) 级别的超大模型,硬件成本是天文数字,绝大多数人没有本地运行大模型的硬件:
而极简的 Ollama App 直接云端模型就很省事
✅ 零硬件要求 - 任何设备都能用 ✅ 顶级模型 - 可以使用 671B 这种超大模型 ✅ 即开即用 - 无需配置环境 ✅ 性能稳定 - 数据中心级别的算力
我的观点是:Ollama 这一步走得非常对。
Ollama 从第一天起,核心价值就不是"本地",而是"标准化"。
它把千奇百怪的模型运行方式,统一成了一个优雅的 ollama run 和一套标准的 API。现在,它把这个标准延伸到了云端:
ollama pull 就完事了。如果 Ollama 只做本地,它的用户永远局限在"有钱买显卡的极客圈"。Ollama 如果只守着"本地"这一亩三分地,就意味着它的用户永远无法通过这个熟悉的工具体验最顶尖的模型能力。这反而是一种限制。
更何况 Ollama 也没做"二选一",而是"既要又要",它做的是 Local + Cloud。
最牛的地方在于,你不需要换工具,不需要改代码,甚至不需要换 API。
这种无缝切换的体验,才是 Ollama 的杀手锏。
从公司战略角度看,云端服务提供了一个清晰的商业模式: