想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
Ollama是一个轻量级工具,支持在本地一键运行大模型(如Llama、DeepSeek等),无需复杂配置。
1. 下载安装Ollama
curl -fsSL https://ollama.ai/install.sh | sh
2. 安装 点击install
3. 验证安装成功
打开终端输入 ollama --version
,显示版本号即安装成功。
Ollama内置了主流模型库,直接通过命令行拉取即可。
在下载前要确定你的电脑配置
模型参数规模 | 适用场景 | CPU最低要求 | 内存最低要求 | 硬盘空间 | GPU显存推荐 |
---|---|---|---|---|---|
1.5B | 基础任务(文本生成、简单问答) | 4核以上,支持AVX2 | 8GB+ | 3GB+ | 非必需,若使用则4GB+ |
7B | 开发测试等场景 | 8核以上 | 16GB+ | 8GB+ | 8GB+ |
8B | 更高精度的轻量级任务 | 8核以上 | 16GB+ | 未明确提及,预计接近7B | 推荐RTX 3070或类似性能 |
14B | 企业级复杂任务 | 12核以上 | 32GB+ | 15GB+ | 16GB+ |
32B | 高精度专业领域任务 | 16核以上 | 64GB+ | 30GB+ | 24GB+ |
70B | 科研机构进行高复杂度生成任务 | 32核以上 | 128GB+ | 70GB+ | 多卡并行,至少40GB |
我的电脑是4070ti所以选择了 deepseek-r1:7b
1. 下载DeepSeek模型
(根据需求选择模型版本,如deepseek-r1:7b
、deepseek-math-7b
等)
ollama pull deepseek-r1:7b
注:首次下载需等待模型文件拉取(约5-20分钟,取决于网络)。
2. 启动模型服务
(根据需求选择模型版本,如deepseek-r1:7b
、deepseek-math-7b
等)
ollama run deepseek-r1:7b
Ollama默认开启本地API服务(端口11434),可直接通过HTTP调用。
方法1. 用Curl快速测试
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-7b",
"prompt": "你好,请介绍你自己",
"stream": false
}'
注:返回结果包含"response"字段,即AI生成的文本。
方法2. Python脚本调用
import requests
def ask_ai(prompt):
url = "http://localhost:11434/api/generate"
data = {
"model": "deepseek-r1:7b",
"prompt": prompt,
"stream": False
}
response = requests.post(url, json=data)
return response.json()["response"]
answer = ask_ai("如何用Python计算斐波那契数列?")
print(answer)
}'
方法3. Python脚本调用
{
"model": "deepseek-r1:7b",
"prompt": "用一句话解释量子力学",
"stream": false
}
点击发送,查看返回结果!
现在就可以愉快地使用了!!
2. 查看已安装模型
ollama list
3. 删除模型
ollama rm deepseek-r1:7b
4. 性能调优
通过Ollama,DeepSeek大模型的部署和调用变得前所未有的简单!无论是写代码、学知识还是日常问答,本地AI助手都能随叫随到。赶紧动手试试,解锁更多玩法吧!🚀
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有