Deepseek R1实在太火爆了,玩一玩本地部署。本地部署好处:使用灵活,数据安全,个人、企业都能放心使用。
只需要简单3步,手把手教会你。
一、 Ollama安装
Ollama 是一个开源的本地化大模型部署工具,可以部署各种大模型。
地址:https://ollama.com/
根据电脑系统,下载对应版本。我是一台mac电脑,下载Mac版本,并安装。
根据你的电脑配置,在网站Models里,选择模型参数的运行命令。
我的电脑macbook m1芯片,16G内存,我选择的是14b,表示有140亿个参数。对应命令:ollama run deepseek-r1:14b
二、部署deepseek R1模型
在电脑命令行窗口,运行刚刚复制的命令:ollama run deepseek-r1:14b
模型9个G,我家是千兆宽带,下得挺快,10分钟左右就下载自动部署好了。
在命令行就可以直接使用deepseek R1。为了更加方便的使用,再搞一个web界面。
三 搭建web-ui
web界面选择的方案是:Open web ui。交互体验好些,用起来的效果类似chatgpt网页。
1、安装docker,docker官网:https://docker.p2hp.com/ 选择对应版本直接安装就行.
2、docker运行web-ui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
这个过程有一些慢,差不多花了30分钟。
最后,在浏览器中输入网址:http://localhost:3000/
开始使用web-ui:
初始化账号,然后就可以和deepseek-r1对话了。
这就是整个deepseek R1本地部署的流程,很简单吧。
以上就是本期的主要内容。如果觉得还不错,随手点个赞、在看、转发吧。如果想第一时间收到推送,也可以星标⭐一下。谢谢你的支持,我们,下期再见~
领取专属 10元无门槛券
私享最新 技术干货