Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

原创
作者头像
陌涛
发布于 2025-01-29 06:04:07
发布于 2025-01-29 06:04:07
1.3K0
举报
文章被收录于专栏:畅所欲言畅所欲言

上文我们简单介绍了国产之光——DeepSeek-R1

本文我们来详细介绍如何在本地部署

首先我们进入Ollama官网点击下载:https://ollama.com/

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

由于我本地是Windows,所以在这儿点击下载Windows

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

下载结束后,点击安装

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

安装完成后,会在电脑右下角出现Ollama图标,可以不用先启动Ollama,先退出做一些必要路径的配置!

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

右键图标,会出现退出的按钮「Quit Ollama」,注意:一定要退出Ollama,否则下边的环境配置无法生效!

关闭开机自启动(可选)

Ollama 默认会随 Windows 自动启动,可以在「文件资源管理器」的地址栏中访问以下路径,删除其中的Ollama.lnk快捷方式文件,阻止它自动启动。

%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

配置环境变量(必须)

Ollama 的默认模型存储路径如下:C:\Users%username%.ollama\models,无论 C 盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘,否则会影响电脑运行速度。

打开「系统环境变量」,新建一个系统变量OLLAMA_MODELS ,然后设置ollama模型的存储路径。

变量名:OLLAMA_MODELS

变量值(路径):F:\ollama\models

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

配置端口(可选)

Ollama API 的默认访问地址和侦听端口是http://localhost:11434,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口(在系统环境变量里设置): 变量名:OLLAMA_HOST

变量值(端口)::8000

只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。(变量值的端口前号前有个冒号:)

注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本。另外,可能需要在 Windows 防火墙中开放相应端口的远程访问。

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

允许浏览器跨域请求(可选)

Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在其它前端面板中调用 Ollama API,比如Open WebUI,建议放开跨域限制:

变量名:OLLAMA_ORIGINS

变量值:*

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

运行Ollama

将上述更改的环境变量保存后,在「开始」菜单中找到并重新启动 Ollama。找到ollama.exe的所在位置,在该位置打开cmd

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

因为笔记本是4060,8G,所以选的是ollama run deepseek-r1:7b

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

安装完成

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

好的,我们现在已经将Ollama安装完毕,接下来该安装浏览器插件——Page Assist - 本地 AI 模型的 Web UI

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

点击后,会弹出一个网页,我们点击左上角,选择刚刚安装好的,再点右上角的设置

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

中文在这里设置

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

点击RAG,选择刚刚安装的模型

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

我们可以举个简单的例子如下:鲁迅为什么要打周树人?

得到的答案:

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

我们来提出反问:

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
在windows主机本地快速部署使用deepseek-r1大模型
一台配备 Windows 操作系统、12GB 或以上显存的英伟达显卡、8GB 或以上内存,并能连接互联网的电脑可以继续阅读以下内容。
AI粉嫩特工队
2025/05/15
610
在windows主机本地快速部署使用deepseek-r1大模型
Ollama搭配DeepSeek,本地部署全攻略
在人工智能领域,大型语言模型(LLMs)正变得越来越普及,而将这些模型部署到本地设备上,不仅可以提高数据隐私性,还能降低对网络的依赖。Ollama 是一个开源工具,能够帮助用户轻松地在本地运行各种大型语言模型,包括 DeepSeek。本文将详细介绍如何通过 Ollama 在本地安装和使用 DeepSeek 模型。
小博测试成长之路
2025/02/18
2.1K0
Ollama搭配DeepSeek,本地部署全攻略
本地大模型deepseek搭建——训练自己的ai助手(新手也能看懂的简易教学)
因为该软件和模型都是默认安装C盘,无法更改,我们的C盘正常来说,也很难承受几十个g的模型,所以我们就需要进行一定的修改。
网e渗透安全部
2025/02/10
41.7K2
本地大模型deepseek搭建——训练自己的ai助手(新手也能看懂的简易教学)
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
DeepSeek 隐私政策中提到了关于用户输入信息收集的条款,无论你输入什么文本,以及上传什么文件都会被第三方机构所收集,所以如果是在进行相关的项目研究或者实验进展分析的时候,就很有必要对数据进行隐私保护,且本地部署是支持离线的
DARLING Zero two
2025/02/02
5.6K0
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
最近 DeepSeek 大模型 AI 火遍全网,我也忍不住去了解了一番。尝试在本地部署后,发现整个过程非常简单,于是决定记录下来,分享给大家。本文将以最基础的方式演示如何部署,无需使用 Docker 容器,也不需要“魔法上网”,即使是计算机小白也能按照步骤轻松完成。
后端码匠
2025/02/06
3.1K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
LLM 本身只是一些 神经网络参数, 就拿 DeepSeek-R1 来讲,模型本身存储了 权重矩阵,以及 混合专家(MoE)架构, 实际运行起来需要行业级别的服务器配置, 消费级别的个人电脑不能直接运行,实际还涉及到硬件适配,需手动配置 CUDA/PyTorch 环境,编写分布式推理代码,处理量化与内存溢出问题
山河已无恙
2025/02/25
1.5K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
使用DeepSeek搭建个人知识库
对于想要在本地或自托管环境中运行 LLM 的用户而言,Ollama 提供了一个无需 GPU、在 CPU 环境也可高效完成推理的轻量化 “本地推理” 方案。而要让 Ollama 真正 “接地气”,往往需要与其他开源项目进行配合——例如将文档、数据源或应用前端与 Ollama 打通,这便衍生出许多解决方案。
lyushine
2025/04/02
2380
windows本地部署DeepSeek-R1模型
最近,在学习之余,我关注到了一个备受瞩目的热点话题——deepseek。这个横空出世的AI模型不仅效果超越了同期顶级AI,离谱的是,参数量不增反降的情况下,性能却大幅提升。最重要的是,deepseek是一个开源模型,这意味着人人都能享受到AI的强大力量。国内科技爱好者们对此激动不已,纷纷热议这一突破性进展。
柳神
2025/02/09
6430
windows本地部署DeepSeek-R1模型
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。
Francek Chen
2025/02/12
1.5K0
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
一文掌握DeepSeek本地部署+Page Assist浏览器插件+C#接口调用+局域网访问!全攻略来了!
DeepSeek大火,网络上也看到很多人分享本地部署心得。但想要更细了解,还是要自己本地部署一次。
郑子铭
2025/04/04
1670
一文掌握DeepSeek本地部署+Page Assist浏览器插件+C#接口调用+局域网访问!全攻略来了!
无需云端服务器: 三步实现DeepSeek大模型本地化部署deepseek、Ollama和Chatbox
还在为云端AI服务的高昂费用而苦恼?是否总担心数据隐私会在云端泄露?别愁啦!DeepSeek R1——这款与OpenAI o1性能相媲美的开源大模型,结合Ollama和Chatbox工具,就能让你轻松在本地实现大模型的部署,零成本、高隐私,畅享AI应用的无限可能!🤗
猫头虎
2025/02/02
1.8K0
无需云端服务器: 三步实现DeepSeek大模型本地化部署deepseek、Ollama和Chatbox
简单3步部署本地国产大模型DeepSeek大模型
DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。
星哥玩云
2025/02/06
4.8K0
简单3步部署本地国产大模型DeepSeek大模型
小白也能看懂的DeepSeek-R1本地部署指南
春节期间 Deepseek 凭借其出色的性能表现,吸引了众多技术爱好者的目光,会用的人说巨好用,但是也有很多人说也不过如此,其实这么多国际巨头都震惊,自然是非常惊艳的一款产品。如果你也渴望在本地部署该模型,深入探索其强大功能,那么这篇攻略将为你提供详细的指导。这里面我将给大家演示的是 windows 和 mac 双平台的部署。废话不多说,现在开始和大家一起部署。
徐建国
2025/02/06
53.2K5
小白也能看懂的DeepSeek-R1本地部署指南
DeepSeek r1本地部署手把手教程
https://developer.nvidia.com/rdp/cudnn-archive
蛋黄
2025/03/03
2180
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
在人工智能领域,大型语言模型(LLM)正变得越来越普及,许多用户希望能够在本地环境中运行这些模型,以确保数据隐私、定制化需求或离线工作的便捷性。DeepSeek-R1 是近期备受关注的高性能 AI 推理模型,专注于数学、编程和自然语言推理任务。与此同时,Ollama 作为一款强大的工具,帮助用户在本地环境中轻松部署和管理大型语言模型。
一键难忘
2025/02/04
3.2K0
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
小白也能看懂的DeepSeek-R1本地部署指南
春节期间,Deepseek以其卓越性能赢得众多技术爱好者的关注。用户评价褒贬不一,但国际巨头的震惊足以证明其非凡之处。若你想在本地部署该模型,探索其强大功能,以下指南将为你提供详细指导。本文将介绍Windows和Mac双平台的部署流程。
全栈若城
2025/02/08
57.7K2
小白也能看懂的DeepSeek-R1本地部署指南
本地DeepSeek部署实战:局域网访问与API对外开放技巧
| 原创作者/编辑:凯哥Java | 分类:人工智能学习系列教程
凯哥Java
2025/02/12
4.6K0
本地DeepSeek部署实战:局域网访问与API对外开放技巧
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
DeepSeek现在流行度正盛,今年的机器学习就用他作为一个开端,开整。 本文是基于百度aistudio的在线课程《DeepSeek从云端模型部署到应用开发》。
用户2225445
2025/03/15
1170
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
重磅突破!网工效率神器完美整合DeepSeek+Ollama,性能暴增300%
最新版ANToolsProV3.0迎来重大更新,不仅完美支持DeepSeek官方API和硅基流动API,更引入了强大的本地Ollama支持。面对DeepSeek官网经常出现的拥堵问题和token使用限制,本地部署方案的意义尤为重大。
释然IT杂谈
2025/02/18
3610
重磅突破!网工效率神器完美整合DeepSeek+Ollama,性能暴增300%
如何在电脑上部署DeepSeek-r1大模型来使用
DeepSeek作为国产AI大模型之光,为什么得到国内外超2千万用户的认可,因为它对GPU要求配置低,大部分电脑都支持独立部署使用,且DeepSeek能力卓越,在推理能力、数学、代码和语音处理方面直逼ChatGPT4.0,这样的性价比自然赢得追捧。本期小白教程,轻松给你电脑安装上DeepSeek-r1大模型,在自己的电脑上使用DeepSeek-r1,反应很快还免费。
用户2003544
2025/02/07
5902
推荐阅读
在windows主机本地快速部署使用deepseek-r1大模型
610
Ollama搭配DeepSeek,本地部署全攻略
2.1K0
本地大模型deepseek搭建——训练自己的ai助手(新手也能看懂的简易教学)
41.7K2
如何快速高效本地部署DeepseekR1大模型?保姆级教程 无惧隐私威胁
5.6K0
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
3.1K0
基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知
1.5K0
使用DeepSeek搭建个人知识库
2380
windows本地部署DeepSeek-R1模型
6430
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
1.5K0
一文掌握DeepSeek本地部署+Page Assist浏览器插件+C#接口调用+局域网访问!全攻略来了!
1670
无需云端服务器: 三步实现DeepSeek大模型本地化部署deepseek、Ollama和Chatbox
1.8K0
简单3步部署本地国产大模型DeepSeek大模型
4.8K0
小白也能看懂的DeepSeek-R1本地部署指南
53.2K5
DeepSeek r1本地部署手把手教程
2180
基于Ollama平台的DeepSeek-R1目标检测模型本地部署与应用研究【DeepSeek保姆级本地部署教程】
3.2K0
小白也能看懂的DeepSeek-R1本地部署指南
57.7K2
本地DeepSeek部署实战:局域网访问与API对外开放技巧
4.6K0
DeepSeek从云端模型部署到应用开发-02-ollama+deepseekr1本地部署
1170
重磅突破!网工效率神器完美整合DeepSeek+Ollama,性能暴增300%
3610
如何在电脑上部署DeepSeek-r1大模型来使用
5902
相关推荐
在windows主机本地快速部署使用deepseek-r1大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档