大家好,我是编程乐趣。
我们在采用Ollama来部署DeepSeek的时候,为了方便我们开发和调试,掌握Ollama相关命令就非常重要了。
以下是Ollama CLI 命令的整理说明,涵盖常用功能及详细用法:
以下是 Ollama CLI 命令的整理说明,涵盖常用功能及详细用法:
核心命令
ollama run <模型名称>
运行指定模型,进入交互式对话模式。
示例:
ollama run llama2 # 运行默认 Llama 2 模型
ollama run codellama:7b # 运行特定版本的模型
ollama list
列出本地已下载的所有模型。
示例输出:
NAME SIZE MODIFIED
llama2 4.2GB 2 days ago
codellama:7b 3.8GB 5 hours ago
ollama pull <模型名称>
从仓库下载模型(若未下载或需要更新)。
示例:
ollama pull mistral # 下载 Mistral 模型
ollama push <模型名称>
将本地模型推送至私有仓库(需配置权限)。
示例:
ollama push my-org/mymodel:latest
ollama create <模型名称> -f <Modelfile路径>
根据Modelfile创建自定义模型。
示例:
ollama create mymodel -f ./Modelfile
ollama rm <模型名称>
删除本地模型。
示例:
ollama rm codellama:7b # 删除指定版本模型
模型管理
ollama cp <源模型名称> <目标模型名称>
复制模型生成新副本(用于修改或实验)。
示例:
ollama cp llama2 my-llama2-copy
ollama show <模型名称>
查看模型详细信息:
示例:
ollama show llama2 # 显示模型配置
服务与调试
ollama serve
启动 Ollama 后台服务(通常自动运行,无需手动调用)。
ollama ps
查看当前正在运行的模型实例。
示例输出:
ID MODEL CREATED STATUS
a1b2 llama2 5 minutes ago running
辅助命令
ollama help
查看所有命令帮助文档。
ollama -v
显示当前 Ollama 版本。
常用场景示例
下载并运行模型:
ollama pull llama2 && ollama run llama2
创建自定义模型:
编写Modelfile定义配置。
执行:
ollama create mymodel -f ./Modelfile
ollama run mymodel
调试模型响应:
ollama run llama2 --verbose # 显示详细推理过程
注意事项
部分命令需 Ollama 服务已启动(如run,list),服务通常自动运行。
模型名称需包含版本标签(如codellama:7b),否则默认使用latest。
使用ollama help <命令>查看特定命令的详细选项(如ollama help create)。
通过以上命令,您可以高效管理本地模型、调试服务及自定义模型配置。
领取专属 10元无门槛券
私享最新 技术干货