首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >windows本地部署DeepSeek-R1模型

windows本地部署DeepSeek-R1模型

作者头像
柳神
发布于 2025-02-09 13:19:10
发布于 2025-02-09 13:19:10
76700
代码可运行
举报
文章被收录于专栏:清羽飞扬清羽飞扬
运行总次数:0
代码可运行

碎碎念

最近,在学习之余,我关注到了一个备受瞩目的热点话题——deepseek。这个横空出世的AI模型不仅效果超越了同期顶级AI,离谱的是,参数量不增反降的情况下,性能却大幅提升。最重要的是,deepseek是一个开源模型,这意味着人人都能享受到AI的强大力量。国内科技爱好者们对此激动不已,纷纷热议这一突破性进展。

然而,随着deepseek的崛起,外界似乎开始感到不安,试图通过网络攻击等手段打压这个新生企业。但令人振奋的是,中国的红客们屡次成功反击,植入大悲咒,小鸟壁纸等,相关新闻频频登上热搜。这一系列事件让我对deepseek产生了浓厚的兴趣,决定亲自尝试将其部署到本地,体验一下这个强大的AI模型。

出乎意料的是,部署过程异常简单。下面,我将与大家分享在Windows系统上部署deepseek的全过程。为了让大家能够更方便地使用这个模型,我还在网上搜寻并筛选出来了四五款本地使用的ollama可视化工具,一并分享给大家。希望这些工具能够帮助大家更直观、更高效地体验deepseek的魅力。

好的,下面是一个更加官方且规范的版本:

前期要求

硬件要求

在本地部署DeepSeek-R1模型之前,请确保你的电脑的硬件符合以下要求:

  • 处理器:支持x86_64架构的IntelAMD处理器。
  • 图形处理单元(GPU):请确保你的电脑有一个市面主流GPU,虽然Ollama可以在纯CPU环境下跑,但是速度上会慢许多。
  • 内存:最低要求8GB RAM,推荐16GB RAM以确保良好的系统性能。
  • 存储空间:至少10GB的可用存储空间,推荐使用固态硬盘(SSD)以提供更快的数据读写速度。

软件要求

请确保您的系统安装并配置了以下软件环境:

  • 操作系统Windows 10或更高版本(64位),以确保与Ollama工具的兼容性。
  • Ollama:本项目采用Ollama进行模型部署。请根据官方文档安装并配置Ollama工具。
  • Node.js(可选):若需要与前端进行交互或进行脚本调试,推荐安装Node.js环境,在可视化面板的部署中有部分项目依赖于NodeJS

个人要求

为确保能够顺利完成DeepSeek-R1模型的部署,建议具备以下个人技能:

  • 命令行基础:能够理解并处理命令行中的错误信息,具备基本的调试能力,能够定位并解决常见的配置问题。
  • 环境变量配置:能够在Windows操作系统中自行配置环境变量,确保相关工具和软件能够正常运行。
  • 问题排查能力:具备自主解决部署过程中可能遇到的常见问题的能力,能够查阅文档或社区资源进行有效的故障排除。

当然,本次模型部署并不困难,并且在这个教程中,我也会尽可能地再度零基础小白化,只要你有必要的硬件条件,相信你一定可以做到滴!

部署教程

安装Ollama

首先我们需要安装OllamaOllama是一个简便的本地机器学习模型部署工具,专为简化大规模模型的运行而设计。它支持在Windows和Linux等操作系统上部署深度学习模型,并且不依赖Python或其他复杂的框架,能够快速在本地环境中进行推理,使得模型能够高效利用本地硬件资源,适合需要快速部署和低配置环境的用户。

在网上搜索,我们可以很容易的找到他的官网,地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

Ollama

Get up and running with large language models

点击下载后安装即可,由于官网地址可能会稍微有点慢,我查找了一下,在他的github的软件包中同样有安装包,所以可以利用github地址,并通过开源加速地址进行下载,下载地址如下,地址可能具有时效性:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
https://ghproxy.cn/https://github.com/ollama/ollama/releases/download/v0.5.7/OllamaSetup.exe

当然你也可以直接使用免安装版,直接解压到指定位置即可,地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

Ollama

github.com@Ollama

github的软件包中有多种选择,为不同操作系统的不同指令集,大部分windows电脑推荐选择ollama-windows-amd64.zip版本

移动软件安装位置

使用可执行文件安装,会将Ollama自动安装到C盘下,后续的模型也会自动安装到安装目录下,如果你想将其移动到D盘,可以根据下面的说明继续安装,如果C盘空间足够大,且并不在意安装路径,可以直接点击快捷地址跳到下一部分。快捷地址

此时注意,在安装完成后,Ollama会自动运行,请在电脑右下角桌面角标处退出Ollama,防止由于运行中导致后续操作无法正确执行。

退出后台
退出后台

如果你和我一样,使用了安装程序安装,我们可以将其手动移动到D盘。找到Ollama安装地址,默认为下图地址:

Ollama原安装地址
Ollama原安装地址

将其整个剪切粘贴到你想要安装到的位置,理论上任何位置都可以,尽量不要包含中文路径,比如我是放到了D盘,文件结构如下:

Ollama现安装地址
Ollama现安装地址

由于Ollama是命令行驱动的,我们需要修改他的系统变量,才能让windows找到可执行文件。右键我的电脑,属性,高级系统设置,环境变量,在用户系统变量中找到Path

Path环境变量位置
Path环境变量位置

双击打开后,你应该会发现最下面一行多了一个Ollama的地址,指向原地址,将其修改刚才修改后的文件夹地址,如果一切正确,在这个地址下,应该会有一个Ollama.exe的可执行文件,然后再在用户变量下创建变量OLLAMA_MODELS,并填入模型保存地址,以后拉取的模型都会保存到这个路径下。如下图所示:

Path地址修改及创建
Path地址修改及创建

修改后,如果一切正常,安装应该就完成了,打开终端,输入ollama,应该就可以看到系统响应的指令啦!

简单输出
简单输出

模型部署

ollama下载好了,首先我们来学习一下他的简单指令,ollama的指令很简单,最基本的只有两类:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama [flags]    # 使用标志(flags)运行 ollama。
ollama [command]  # 运行 ollama 的某个具体命令。
  1. 可用指令
    • serve:启动 ollama 服务。
    • create:根据一个 Modelfile 创建一个模型。
    • show:显示某个模型的详细信息。
    • run:运行一个模型。
    • stop:停止一个正在运行的模型。
    • pull:从一个模型仓库(registry)拉取一个模型。
    • push:将一个模型推送到一个模型仓库。
    • list:列出所有模型。
    • ps:列出所有正在运行的模型。
    • cp:复制一个模型。
    • rm:删除一个模型。
    • help:获取关于任何命令的帮助信息。
  2. 可用标志
    • -h, –help:显示 ollama 的帮助信息。
    • -v, –version:显示版本信息。

以上命令来源于菜鸟教程,具体看文末外部引用。

这里我们只挑几个最为常见的命令进行展示,如下图所示:

常见命令展示
常见命令展示

学会了基本用法,下面我们就来本地部署模型吧!首先拉取deepseek的模型,有如下几种选择,请按照电脑要求自行选择:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama pull deepseek-r1:1.5b    # 轻量化选择
ollama pull deepseek-r1:7b       # 单主流GPU选择,主流指30系显卡以上,显存6GB以上

Ollama可以在纯CPU情况下跑,但是速度上会慢很多,所以如果想要尝鲜可以从低配置下开始测试。

我的电脑配置

系统:Windows 10 22H2 专业工作站

CPU:R7-5800H

GPU:RTX3060 LAPTOP

显存:6GB

内存:16GB

PS:运行7B模型没有压力,没有向上继续测试

除了这些模型,还有各种不同参数量的模型,具体可以看下面网址中的模型列表:

🪧引用站外地址,不保证站点的可用性和安全性

Ollama-Deepseek-R1

DeepSeek's first-generation of reasoning models with comparable performance to OpenAI-o1

等待一段时间,模型拉取成功后,就可以开始跑了,通过以下命令,这里以deepseek-r1:7b作为演示:

模型展示
模型展示

这样,你就完整的跑完deepseek模型啦!

可视化工具

为了更加方便的进行对话,我找到了网上的众多应用,但是很多项目部署起来都比较麻烦,比如官方的需要docker进行部署,这违背了我简单体验的初衷,所以我尝试找一些较为方便的应用,最终筛选出了下面四个,排序即为推荐指数。

Cherry Studio

Cherry Studio

推荐指数:✮✮✮✮✮

推荐原因:界面美观,功能全面,安装即可使用

这个是我比较推荐的一个应用,不同于官方的需要自行配置环境才能测试,Cherry Studio仅仅需要下载安装即可,并且对输出的深度思考的结果也进行了一定的美化,唯一缺点可能是功能太多了,导致稍微有点杂?

地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

Cherry Studio

支持多服务商集成的AI对话客户端

配置也很简单,只需要在设置中,打开ollama后,设置api地址并添加模型列表即可,如下图所示:

Ollama配置过程
Ollama配置过程

下面简单体验一下,在页面顶部即可选择模型,这里我们选择7b并尝试询问:

页面展示
页面展示

该软件将深度思考的过程折叠了起来,而不是像某些软件按照命令行中的<think>原样展示,并且页面上的UI也极具美观性。

ChatBox

ChatBox

推荐指数:✮✮✮✮

推荐原因:简单直观,比上面那个稍微差点,但是更加轻量化,对深度思考部分没有进行过多美化。

下面是安装地址:

🪧引用站外地址,不保证站点的可用性和安全性

Chatbox AI

办公学习好助手

这个设置相比上一个,功能性上略逊一筹,但是更加简单轻量,模型可以自行查询api生成列表,无需自己输入模型名称,在设置中就可以找到模型,按照自己的需求进行配置即可,如下图所示:

Ollama设置
Ollama设置

这个软件更加轻量化,但是稍加逊色的是界面上的美化,如果不在意这些,这个也是一个很好的选择,下面是界面展示:

界面展示
界面展示

nextjs-ollama-llm-ui

nextjs-ollama-llm-ui

推荐指数:✮✮✮

推荐原因:基于nextjs,只需要有node环境即可使用,界面简单直观,使用webui,适合有特定需求的用户,但是由于基于webui,聊天历史可能无法很好的保存。

项目地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

nextjs-ollama-llm-ui

github.com@TheFirewall

不用多说,相比于官方的复杂的docker设置,这个轻量了许多,也更加容易部署,但是功能性稍微欠缺,不过基本的对话,切换模型等功能俱全,如果没有很高的要求,这无疑是一个服务器部署的绝佳低配替代。

执行以下命令即可运行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
git clone https://github.com/jakobhoeg/nextjs-ollama-llm-ui
cd nextjs-ollama-llm-ui
mv .example.env .env
npm install
npm run dev

以上命令也不再细讲,相信看到这里的人都有一定的前端项目基础,这也是最基本的安装包和运行的命令了。下面是界面展示:

展示界面
展示界面

不需要过多的配置,用户的浏览记录保存在本地存储空间中,不需要配置api,项目中已经内置,界面模仿了GPT的配置,简单但是直观,适合想要在服务器上部署并在网站上进行访问的朋友。

本地存储空间
本地存储空间

本地存储空间保存浏览记录的方式虽然可以用,但是仍然不保险,如果想要自己长期用还是建议用软件。

AIHub

AIHub

推荐指数:✮✮

推荐原因:代码开源,轻量化,但是没有过多的修饰,且默认安装到C盘,需要手动移动。

项目地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

AIHub

github.com@classfang

这个软件的代码开源,所以可以放心使用,但是在界面上略显单调,且需要手动输入模型名称,比上面几款来说略嫌麻烦,且默认安装到C盘,需要手动移动到其他盘,界面如下:

AIHub展示
AIHub展示

配置方面不过多细讲,仅需在页面右上角点击,按照提示配置即可:

配置方式
配置方式

and so on

除了这些,还有官方的功能最全面,但是配置也比较麻烦,由于我并没有这方面的需求,所以并没有尝试部署,如果有需要的可以自行部署。地址如下:

🪧引用站外地址,不保证站点的可用性和安全性

open-webui

github.com@open-webui

还有一些软件,例如chatwise,这个软件优化很好,且界面也进行了相对应的美化,但是唯一缺点就是,在浏览器报毒,虽然我知道这大概率是误报,但是秉持着宁可信其有,不可信其无的原则,在这里我还是不推荐,如果有兴趣可以自行下载,链接如下:

🪧引用站外地址,不保证站点的可用性和安全性

ChatWise

The second fastest AI chatbot

总结

本次部署过程相对简单,deepseek-r1:7b模型虽然在性能上不及当前一些更为庞大的模型,但其轻量级的设计使得它在本地环境中也能高效运行。尽管它不具备超高的计算能力,但是也能很好的胜任一些常见任务,如模拟对话、自动回复等,展现出极佳的实用性。对于需要快速响应、低延迟的应用场景,deepseek-r1:7b无疑是一个理想的选择。

随着技术的不断发展,相信会有更多的开发者探索并扩展其应用场景,创新出更多有趣且实用的玩法。无论是对话生成、文本分析还是图像处理,未来的可能性都令人期待。通过本次部署,我们不仅验证了模型的实际效果,也为未来的研究和应用奠定了基础,期待更多的创新与突破

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
小白也能看懂的DeepSeek-R1本地部署指南
春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。
徐建国
2025/02/06
53.8K5
小白也能看懂的DeepSeek-R1本地部署指南
小白也能看懂的DeepSeek-R1本地部署指南
春节期间,Deepseek以其卓越性能赢得众多技术爱好者的关注。用户评价褒贬不一,但国际巨头的震惊足以证明其非凡之处。若你想在本地部署该模型,探索其强大功能,以下指南将为你提供详细指导。本文将介绍Windows和Mac双平台的部署流程。
全栈若城
2025/02/08
59.8K2
小白也能看懂的DeepSeek-R1本地部署指南
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
最近 DeepSeek 大模型 AI 火遍全网,我也忍不住去了解了一番。尝试在本地部署后,发现整个过程非常简单,于是决定记录下来,分享给大家。本文将以最基础的方式演示如何部署,无需使用 Docker 容器,也不需要“魔法上网”,即使是计算机小白也能按照步骤轻松完成。
后端码匠
2025/02/06
3.4K0
不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1
最近在群里看到个离谱的事——有人居然在淘宝、闲鱼等平台上收钱帮人部署 DeepSeek-R1!更离谱的是,居然还有不少人掏钱买这个服务。说实话,这种割小白的操作真的让人无语。
老码小张
2025/02/05
8600
不要花钱买课了!3 分钟教你自己本地部署 DeepSeek-R1
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
在人工智能技术快速发展的今天,本地化部署大型语言模型(LLM)已成为开发者与研究人员的重要需求。本文将详细介绍如何通过Ollama框架实现DeepSeek R1模型的本地部署,涵盖从硬件选型到推理实战的全流程,并提供针对不同场景的优化方案。
Towserliu
2025/02/06
11.4K0
基于Ollama的DeepSeek R1本地部署全流程指南:从零到推理实战
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。
Francek Chen
2025/02/12
1.9K0
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
免费榜单双双登顶,超越了长期占据榜单的 GPT,这一突破性进展引发了投资者的广泛关注,甚至导致英伟达股价大幅下跌。从那时起,
陈明勇
2025/02/01
4.7K13
Deepseek 本地部署“网页版”与“软件版”超级详细教学(deepseek+Ollama+OpenWebUI+Chatbox AI+Cherry Studi
近期,人工智能领域迎来了一股新的热潮,DeepSeek作为一款备受瞩目的开源语言模型,凭借其卓越的性能和广泛的应用场景,迅速在全球范围内引起了广泛关注。从技术社区到商业领域,DeepSeek的热度不断攀升,甚至有“挤爆”的趋势。这不仅反映了其强大的技术实力,也体现了市场和用户对其的高度期待。
久绊A
2025/02/20
2.9K0
高效快速教你deepseek如何进行本地部署并且可视化对话
随着最近一个新的人工智能deepseek的爆火,很多大佬都开始了在本地进行deepseek的部署操作,并且离线也可以使用,这里的话我就一步一步带你们部署本地的deepseek,说实话这个人工智能的实力不亚于open ai 的gpt
Undoom
2025/02/02
14.9K8
高效快速教你deepseek如何进行本地部署并且可视化对话
无需云端服务器: 三步实现DeepSeek大模型本地化部署deepseek、Ollama和Chatbox
还在为云端AI服务的高昂费用而苦恼?是否总担心数据隐私会在云端泄露?别愁啦!DeepSeek R1——这款与OpenAI o1性能相媲美的开源大模型,结合Ollama和Chatbox工具,就能让你轻松在本地实现大模型的部署,零成本、高隐私,畅享AI应用的无限可能!🤗
猫头虎
2025/02/02
2K0
无需云端服务器: 三步实现DeepSeek大模型本地化部署deepseek、Ollama和Chatbox
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
在人工智能领域,大型语言模型(LLM)正变得越来越普及,许多用户希望能够在本地环境中运行这些模型,以确保数据隐私、定制化需求或离线工作的便捷性。DeepSeek-R1 是近期备受关注的高性能 AI 推理模型,专注于数学、编程和自然语言推理任务。与此同时,Ollama 作为一款强大的工具,帮助用户在本地环境中轻松部署和管理大型语言模型。
一键难忘
2025/02/04
3.4K0
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
新手快速安装部署本地DeepSeek
随着DeepSeek的爆火,身为行业从业人员不得不了解和接受,AI做为一种工作中工具的重要性已经变的不言而喻了,互联网的维度已经在悄悄的变化了,分享一篇本地安装部署DeepSeek的教程。
stark张宇
2025/02/15
5873
使用DeepSeek搭建个人知识库
对于想要在本地或自托管环境中运行 LLM 的用户而言,Ollama 提供了一个无需 GPU、在 CPU 环境也可高效完成推理的轻量化 “本地推理” 方案。而要让 Ollama 真正 “接地气”,往往需要与其他开源项目进行配合——例如将文档、数据源或应用前端与 Ollama 打通,这便衍生出许多解决方案。
lyushine
2025/04/02
4010
本地部署DeepSeek-R1大模型
想不依赖网络、零门槛运行AI大模型?Ollama帮你轻松实现!本文手把手教你部署DeepSeek模型,并通过本地API实现对话、编程、数据分析,小白也能秒变AI玩家!🌟
全栈开发日记
2025/02/10
1.2K0
本地部署DeepSeek-R1大模型
Ollama搭配DeepSeek,本地部署全攻略
在人工智能领域,大型语言模型(LLMs)正变得越来越普及,而将这些模型部署到本地设备上,不仅可以提高数据隐私性,还能降低对网络的依赖。Ollama 是一个开源工具,能够帮助用户轻松地在本地运行各种大型语言模型,包括 DeepSeek。本文将详细介绍如何通过 Ollama 在本地安装和使用 DeepSeek 模型。
小博测试成长之路
2025/02/18
2.4K0
Ollama搭配DeepSeek,本地部署全攻略
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
5.1K0
简单3步部署本地国产大模型DeepSeek大模型
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
相信大家现在对DeepSeek这个国产AI已经并不陌生了,并且大部分的朋友已经开始用上了DeepSeek。
蒙奇D索隆
2025/02/09
8522
【人工智能】学会这几个命令,你也能快速完成DeepSeek R1的本地部署!!!
极速部署个人计算机 DeepSeek-R1 推理模型
2025的春节,国内外的科技圈子,甚至全民热话,都是深度求索的 DeepSeek-R1 模型。
苏奕嘉
2025/07/14
770
极速部署个人计算机 DeepSeek-R1 推理模型
详细教程!Ollama本地部署新版DeepSeek-R1,如何实现远程访问?
5月末,DeepSeek-R1开源模型迎来0528版本的更新,不仅在数学计算和逻辑推理方面表现出色,还显著降低了幻觉率,减少”已读乱回“的情况。本篇内容将手把手带你使用Ollama+Open WebUI本地部署DeepSeek-R1,并借助贝锐花生壳内网穿透,轻松实现安全远程访问!
贝锐
2025/06/09
8350
1分钟学会DeepSeek本地部署,小白也能搞定!
DeepSeek 是国内顶尖 AI 团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。
磊哥
2025/02/09
2.1K0
1分钟学会DeepSeek本地部署,小白也能搞定!
推荐阅读
相关推荐
小白也能看懂的DeepSeek-R1本地部署指南
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档