首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >极速部署个人计算机 DeepSeek-R1 推理模型

极速部署个人计算机 DeepSeek-R1 推理模型

作者头像
苏奕嘉
发布2025-07-14 18:32:32
发布2025-07-14 18:32:32
1720
举报

引言

2025的春节,国内外的科技圈子,甚至全民热话,都是深度求索的 DeepSeek-R1 模型。

当在家里的大舅哥突然拿出手机,给我播放了“美国决定全面严格审查 DeepSeek”和“中国科技公司 DeepSeek 遭国外有组织的进行大规模 DDoS 攻击”的新闻,并问我 DeepSeek 是个什么东西时,我意识到深度求索的 DeepSeek-R1 模型已成为中国科技历史上的一笔浓墨重彩的里程碑事件。

DeepSeek 主要解决了什么问题?

DeepSeek-R1 就是个啥都懂的国产AI大脑,既能看文字图片又能听声音,还能自己琢磨事儿不犯原则性错误。最牛的是它不用超级电脑,千把块的破手机就能跑,从帮医生搞研究到帮老外译方言全都能干,直接让中国AI技术和欧美掰手腕了。

从腊月二十九到大年初一,三天时间我尽可能全面、仔细的盘点和研究了一遍 DeepSeek-R1 模型,本篇就简明扼要的给大家来一篇个人计算机快速部署 DeepSeek-R1 推理模型的教程,网络好的话十分钟搞定~

前期准备

本次演示,使用了以下基础环境:

电脑:Mac M1 16GB(如是 Win/Linux 和 N/A 卡,也可以照搬)

部署运行框架:Ollama

部署模型:DeepSeek-R1-7b/8b

前端展示:Open-Web

关于 DeepSeek-R1 和 DeepSeek-R1-7b、DeepSeek-R1-8b 的区别,简单来说就是:

  1. 1. DeepSeek-R1:基础款大模型,参数巨多(比如千亿级),像全能学霸,但需要高性能服务器才能跑。
  2. 2. -7B/-8B:砍掉参数的轻量版(70亿/80亿参数),相当于“重点班特供版”,手机/普通电脑都能用,虽然没原版聪明但更接地气。
  3. 3. 核心区别:大模型干复杂活(比如搞科研),小模型做日常事(比如手机译),就像电脑和充电宝的关系——能力不同,但都挂着DeepSeek的牌子。

部署框架 Ollama 安装

  1. 1. 访问官网下载对应系统的安装包:https://ollama.com/download
图片
图片
  1. 2. 解压缩 Zip 包,安装 Ollama
图片
图片
  1. 3. 运行 Ollama 后,在置顶工具栏会出现 Ollama 的 Logo 图标

下载运行 DeepSeek-R1-7b/8b 模型

  1. 1. 访问 Ollama 的 DeepSeek-R1 依赖库地址:https://ollama.com/library/deepseek-r1
图片
图片
  1. 2. 选择 Tag:7b 或者 8b
图片
图片
  1. 3. 复制 Ollama 运行 DeepSeek-R1-7b/8b 的命令
图片
图片
  1. 4. 在终端命令行窗口执行复制的命令
图片
图片

这里下载速度与网络环境有很大关系,尽可能用一个稳定的网络环境下载运行

  1. 5. 校验模型是否部署成功
图片
图片

安装 Open-Web 可视化展示项目

只用命令行窗口进行沟通不太美观,我们引入一个可视化展示项目来完成前端展示。

Open-Web 可视化工具是一款开源的大模型前端可视化展示项目。

项目地址:https://github.com/open-webui/open-webui

提供了使用 Pip 安装和 Docker 运行安装的两种方案,这里为了避免环境问题导致的各种错误,建议使用 Docker 运行和部署该项目。 本篇不做 Docker 安装部署的介绍,可至 DockerHub 官网(https://www.docker.com)下载

  1. 1. 访问项目,在 Readme 中有详细介绍
图片
图片
  1. 2. 我们在上一步已安装部署好 Ollama 框架,故此直接选择第一行命令即可:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
图片
图片
  1. 3. 构建 Open-Web 容器后访问 3000 端口即可开始玩耍(依据电脑配置,可能初次打开速度会比较慢)
图片
图片

以我当前硬件配置运行 8b,Token 生成速度为5-6Token/s,速度还是可以的。

小结

折腾三天就为这一刻——打开浏览器,看着自家电脑跑起DeepSeek-R1,这感觉就像用五菱宏光飙出了法拉利的速度!从装Ollama到拉取模型,再到用Open-Web搞出可视化界面,全程就跟拼乐高似的咔咔两下搞定。

别看7B/8B是"青春版",实测让它写代码能出活、译方言不嘴瓢,甚至还能一本正经跟你讨论量子力学(虽然八成是现学现卖)。最绝的是,这玩意连我那台吃灰三年的老笔记本都能带得动,真·科技下乡典范。

最后说句大实话:十年前咱还在羡慕老外的AI玩具,现在DeepSeek-R1这种"国货之光"都能在家随便折腾了。赶紧动手试试,保准你大年初二就能在家族群里当一回"赛博显眼包"!

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-01-30,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Apache Doris 补习班 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 引言
  • 前期准备
  • 部署框架 Ollama 安装
  • 下载运行 DeepSeek-R1-7b/8b 模型
  • 安装 Open-Web 可视化展示项目
  • 小结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档