首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

原创
作者头像
陌涛
发布2025-01-29 14:04:07
发布2025-01-29 14:04:07
1.4K0
举报
文章被收录于专栏:畅所欲言畅所欲言

上文我们简单介绍了国产之光——DeepSeek-R1

本文我们来详细介绍如何在本地部署

首先我们进入Ollama官网点击下载:https://ollama.com/

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

由于我本地是Windows,所以在这儿点击下载Windows

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

下载结束后,点击安装

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

安装完成后,会在电脑右下角出现Ollama图标,可以不用先启动Ollama,先退出做一些必要路径的配置!

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

右键图标,会出现退出的按钮「Quit Ollama」,注意:一定要退出Ollama,否则下边的环境配置无法生效!

关闭开机自启动(可选)

Ollama 默认会随 Windows 自动启动,可以在「文件资源管理器」的地址栏中访问以下路径,删除其中的Ollama.lnk快捷方式文件,阻止它自动启动。

%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

配置环境变量(必须)

Ollama 的默认模型存储路径如下:C:\Users%username%.ollama\models,无论 C 盘空间大小,需要安装多少模型,都建议换一个存放路径到其它盘,否则会影响电脑运行速度。

打开「系统环境变量」,新建一个系统变量OLLAMA_MODELS ,然后设置ollama模型的存储路径。

变量名:OLLAMA_MODELS

变量值(路径):F:\ollama\models

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

配置端口(可选)

Ollama API 的默认访问地址和侦听端口是http://localhost:11434,只能在装有 Ollama 的系统中直接调用。如果要在网络中提供服务,请修改 API 的侦听地址和端口(在系统环境变量里设置): 变量名:OLLAMA_HOST

变量值(端口)::8000

只填写端口号可以同时侦听(所有) IPv4 和 IPv6 的:8000 端口。(变量值的端口前号前有个冒号:)

注:要使用 IPv6,需要 Ollama 0.0.20 或更高版本。另外,可能需要在 Windows 防火墙中开放相应端口的远程访问。

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

允许浏览器跨域请求(可选)

Ollama 默认只允许来自127.0.0.1和0.0.0.0的跨域请求,如果你计划在其它前端面板中调用 Ollama API,比如Open WebUI,建议放开跨域限制:

变量名:OLLAMA_ORIGINS

变量值:*

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

运行Ollama

将上述更改的环境变量保存后,在「开始」菜单中找到并重新启动 Ollama。找到ollama.exe的所在位置,在该位置打开cmd

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

因为笔记本是4060,8G,所以选的是ollama run deepseek-r1:7b

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

安装完成

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

好的,我们现在已经将Ollama安装完毕,接下来该安装浏览器插件——Page Assist - 本地 AI 模型的 Web UI

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

点击后,会弹出一个网页,我们点击左上角,选择刚刚安装好的,再点右上角的设置

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

中文在这里设置

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

点击RAG,选择刚刚安装的模型

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

我们可以举个简单的例子如下:鲁迅为什么要打周树人?

得到的答案:

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

我们来提出反问:

释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大
释放无限潜能 —— DeepSeek-R1:顶尖开源AI大模型,本地部署从未如此简单与强大

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 运行Ollama
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档