部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >本地部署DeepSeek-R1大模型

本地部署DeepSeek-R1大模型

作者头像
全栈开发日记
发布于 2025-02-10 11:25:11
发布于 2025-02-10 11:25:11
1.1K00
代码可运行
举报
文章被收录于专栏:全栈开发日记全栈开发日记
运行总次数:0
代码可运行

从安装到API调用全流程指南

想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟

一、准备工作:安装Ollama

Ollama是一个轻量级工具,支持在本地一键运行大模型(如Llama、DeepSeek等),无需复杂配置。

1. 下载安装Ollama

  • Windows/Mac用户:访问官网 https://ollama.com/download, 直接下载安装包。 (推荐使用迅雷下载)
  • Linux用户:一键安装命令:curl -fsSL https://ollama.ai/install.sh | sh

2. 安装 点击install

3. 验证安装成功 打开终端输入 ollama --version,显示版本号即安装成功。

二、一键部署DeepSeek模型

Ollama内置了主流模型库,直接通过命令行拉取即可。

在下载前要确定你的电脑配置

模型参数规模

适用场景

CPU最低要求

内存最低要求

硬盘空间

GPU显存推荐

1.5B

基础任务(文本生成、简单问答)

4核以上,支持AVX2

8GB+

3GB+

非必需,若使用则4GB+

7B

开发测试等场景

8核以上

16GB+

8GB+

8GB+

8B

更高精度的轻量级任务

8核以上

16GB+

未明确提及,预计接近7B

推荐RTX 3070或类似性能

14B

企业级复杂任务

12核以上

32GB+

15GB+

16GB+

32B

高精度专业领域任务

16核以上

64GB+

30GB+

24GB+

70B

科研机构进行高复杂度生成任务

32核以上

128GB+

70GB+

多卡并行,至少40GB

我的电脑是4070ti所以选择了 deepseek-r1:7b

1. 下载DeepSeek模型 (根据需求选择模型版本,如deepseek-r1:7bdeepseek-math-7b等)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama pull deepseek-r1:7b

注:首次下载需等待模型文件拉取(约5-20分钟,取决于网络)。

2. 启动模型服务 (根据需求选择模型版本,如deepseek-r1:7bdeepseek-math-7b等)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama run deepseek-r1:7b
  • 看到 >>> Send a message... 提示即启动成功!
  • 输入问题测试(如“用Python写一个快速排序算法”),模型会即时生成回复。

三、本地API调用

Ollama默认开启本地API服务(端口11434),可直接通过HTTP调用。

方法1. 用Curl快速测试

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-7b",
  "prompt": "你好,请介绍你自己",
  "stream": false
}'

注:返回结果包含"response"字段,即AI生成的文本。

方法2. Python脚本调用

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import requests

def ask_ai(prompt):
    url = "http://localhost:11434/api/generate"
    data = {
        "model": "deepseek-r1:7b",
        "prompt": prompt,
        "stream": False
    }
    response = requests.post(url, json=data)
    return response.json()["response"]

answer = ask_ai("如何用Python计算斐波那契数列?")
print(answer)
}'

方法3. Python脚本调用

  • • 打开Postman,新建POST请求,URL填 http://localhost:11434/api/generate
  • • Body选择raw -> JSON,输入:
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
  "model": "deepseek-r1:7b",
  "prompt": "用一句话解释量子力学",
  "stream": false
}

点击发送,查看返回结果!


四、进阶技巧

  1. 1. 使用工具调用它
  • 下载chatbox https://chatboxai.app/zh
  • 使用chatbox 接入ollama API

现在就可以愉快地使用了!!

2. 查看已安装模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama list

3. 删除模型

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
 ollama rm deepseek-r1:7b

4. 性能调优

  • • 增加GPU支持:安装CUDA驱动后,启动时添加 --gpu 参数。
  • • 调整内存:在Ollama配置文件中设置显存限制。

五、常见问题排查

  • • 模型下载失败:检查网络是否畅通,尝试切换镜像源。
  • • API无法连接:确认Ollama服务已启动(终端运行 ollama serve)。
  • • 回复速度慢:关闭其他占用显存的程序,或尝试更小规模的模型(如deepseek-7b)。

通过Ollama,DeepSeek大模型的部署和调用变得前所未有的简单!无论是写代码、学知识还是日常问答,本地AI助手都能随叫随到。赶紧动手试试,解锁更多玩法吧!🚀

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 全栈开发日记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验