
对于 macOS 用户来说,Ollama 绝对是上手本地大模型的首选工具——不用复杂配置,双击就能跑 Qwen、GLM4、Llama3 这些主流模型,离线能用、还能保护隐私,新手也能快速上手。
但我们国内用户用的时候,总会遇到各种小麻烦:网络登不上、注册收不到验证码、拉取模型卡半天……今天就把从安装到使用的全流程,还有专属解决方案、常用命令都整理好,收藏这篇,以后遇到问题直接翻,不用再到处查攻略!
效果图如下:

开始安装前,先确认你的 Mac 满足这些条件,不然后续可能会卡顿、闪退,白忙活一场:
存储要求:系统盘至少留 20GB 空间,单个模型文件大概 4-15GB,要是想多装几个模型,得留更多空间;
网络说明:基础安装、下载本地模型,直接连网就行;但如果要用云端模型(比如 glm-5:cloud)、登录账号,必须用稳定的全局代理,大陆直连肯定会被拦截。
新手直接选「官方一键脚本」,3步就能装完,特别简单;要是网络有点卡,再用「手动安装包」备用,两种方法都适配大陆网络,不用额外折腾。
打开 Mac 自带的终端:启动台 → 其他 → 终端(Terminal),点击就能打开,首次用不用搞复杂设置;
复制下面这段命令,粘贴到终端里,按下回车就好(大陆网络能直接访问,不用开代理):
curl -fsSL https://ollama.com/install.sh | sh耐心等一会儿,终端会自动下载、安装 Ollama,只要出现「Ollama is installed」,就说明装成功了;
验证一下:在终端输入ollama --version,按下回车,能看到版本号(比如 0.3.5),就说明安装正常。
(base) $ ollama --version
ollama version is 0.16.3ollama serve,按下回车,要是显示「Listening on 127.0.0.1:11434」,就说明服务正常;网络问题应该是我们这些国内用户用 Ollama 最头疼的地方——Ollama 的云端服务(官网、账号、云端模型)都在海外,大陆直连会遇到各种问题:登录登不上、收不到验证码、拉取模型卡到不动……下面这些方法都是实测能用的,跟着做就能解决。
如果只是用本地模型(比如 Qwen2.5、GLM4、Llama3 本地版),完全不用开代理,大陆网络直接就能下载、运行,只需要注意两点:
要是下载模型速度太慢:可以切换成手机热点(优先电信、联通),或者重启一下路由器;
要是下载卡住、失败了:在终端输入下面这段命令,刷新一下 DNS 缓存,再重新尝试就好:
sudo dscacheutil -flushcache; sudo killall -HUP mDNSResponder
(输入命令后,需要输入你的 Mac 开机密码,输入的时候终端不会显示密码,直接输完回车就行)如果要用云端模型(比如 glm-5:cloud),或者想登录 Ollama 账号,就必须配稳定的全局代理,不然一定会出问题:登录提示「无法验证真人」、拉取模型无限卡住、注册收不到验证码。
curl https://ollama.com,按下回车,要是返回一大段英文代码(HTML 代码),就说明代理正常;要是提示「连接失败」,就重新配置代理。重点提醒!Ollama 不支持中国大陆手机号收短信验证码,不管试多少次都收不到,别浪费时间了,直接放弃「邮箱+手机号」的注册方式,优先用下面两种无验证码的登录方法:
要是你有 Google 账号,也可以在登录界面选择「Continue with Google」,授权后就能直接登录,流程和 GitHub 登录一样,不用填手机号、不用收验证码。
很多朋友都会遇到这种情况:浏览器已经用 GitHub 登录了,但终端拉取云端模型时,还是提示「请登录」,或者一直卡在「Waiting for sign in」,这是登录状态不同步导致的,跟着下面的步骤操作,就能解决:
# 1. 先退出旧的登录状态
ollama signout
# 2. 清除认证缓存(关键步骤,解决卡住问题)
rm -rf ~/.ollama/id_ed25519* ~/.ollama/.session.json ~/.ollama/cloud/
# 3. 重启 Ollama 服务
ollama stop && ollama start
# 4. 重新发起命令行登录
ollama signin输完上面的命令后,终端会生成一个登录链接(格式:https://ollama.com/connect?key=xxx),再按下面的步骤来:
要是上面的登录方式还是失败,不用慌,直接配置 API Key,不用在命令行登录,就能直接拉取云端模型,步骤很简单:
export OLLAMA_API_KEY="ollama_sk_xxxxxxxxxxxx"echo 'export OLLAMA_API_KEY="ollama_sk_xxxxxxxxxxxx"' >> ~/.zshrc
source ~/.zshrc对于国内用户来说,优先用本地模型最省心——不用开代理、不用登录、离线也能用,速度还稳定,下面就说说常用本地模型的下载和使用方法。
下面这些模型都是 7B 参数,适配 16GB 内存,中文支持得很好,日常用完全足够,复制命令到终端,按下回车就能自动下载:
ollama pull qwen2.5:7bollama pull glm4ollama pull llama3:8bollama pull deepseek-r1:7b也可以直接使用ollama命令后提供的推荐模型,包括minimax-m2.5:cloud、glm-5:cloud、kimi-k2.5:cloud、glm-4.7-flash、qwen3:8b,当前推荐的版本如下图所示:

2. 运行模型(终端对话,简单直观)
模型下载完成后,在终端输入下面的命令,就能启动模型,开始聊天了:
# 运行模型(以 Qwen3:8b 为例,替换模型名就能运行其他模型)
ollama run qwen3:8b启动成功后,终端会出现「>>>」提示符,输入你的问题就好,给大家举个例子:

要是你不喜欢用终端,也可以装个 OpenWebUI(本地可视化界面),网页端操作,能看聊天记录、管理模型,完全本地运行,不用登录,步骤如下:
# 安装 OpenWebUI(大陆直连可下载,需要提前装 Docker)
docker run -d -p 3000:3000 -e OLLAMA_API_BASE_URL=http://127.0.0.1:11434 --name openwebui --add-host=host.docker.internal:host-gateway openwebui/openwebui:latest安装完成后,打开浏览器,访问 http://localhost:3000,就能进入可视化界面,直接选本地模型就能聊天,操作和微信聊天一样简单。
整理了大家日常用得最多的命令,按「服务管理、模型管理、登录管理、问题排查」分好类,不用记,复制就能用,非常方便。
命令 | 作用 |
|---|---|
ollama start | 启动 Ollama 服务 |
ollama stop | 停止 Ollama 服务 |
ollama serve | 查看服务运行状态 |
命令 | 作用 |
|---|---|
ollama pull 模型名 | 下载指定模型(比如 ollama pull glm4) |
ollama run 模型名 | 运行指定模型,开始对话 |
ollama list | 查看本地已下载的所有模型 |
ollama rm 模型名 | 删除指定本地模型(释放存储空间) |
命令 | 作用 |
|---|---|
ollama signin | 发起命令行登录(生成登录链接) |
ollama signout | 退出当前登录状态 |
ollama whoami | 查看当前登录账号信息 |
命令 | 作用 |
|---|---|
sudo dscacheutil -flushcache; sudo killall -HUP mDNSResponder | 刷新 DNS 缓存,解决模型下载慢/卡住 |
rm -rf ~/.ollama/id_ed25519* ~/.ollama/.session.json ~/.ollama/cloud/ | 清除认证缓存,解决登录卡住 |
curl https://ollama.com | 验证代理是否生效 |
整理了国内用户用 Ollama 时,最常遇到的几个问题,大家对照问题找解决方案,不用反复排查,高效解决小麻烦。
1. 本地模型(Qwen2.5、GLM4、Llama3):直连就能用,不用登录、没有网络限制,咱们大陆用户优先选;
2. 云端模型(glm-5:cloud):必须开稳定的全局代理,搭配 GitHub 登录或者 API Key,才能正常使用;
3. 登录一定要用 GitHub/Google,千万别用手机号注册(大陆手机号收不到验证码);
4. 遇到问题先查「网络代理」和「缓存」,大部分小麻烦,用本文的方法都能解决。
收藏这篇手册,以后用 Ollama 遇到任何问题,直接翻一翻,新手也能轻松上手,好好利用本地大模型~