首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

简单3步,教你本地化部署Deepseek R1!

Deepseek R1实在太火爆了,玩一玩本地部署。本地部署好处:使用灵活,数据安全,个人、企业都能放心使用。

只需要简单3步,手把手教会你。

一、 Ollama安装

Ollama 是一个开源的本地化大模型部署工具,可以部署各种大模型。

地址:https://ollama.com/

根据电脑系统,下载对应版本。我是一台mac电脑,下载Mac版本,并安装。

根据你的电脑配置,在网站Models里,选择模型参数的运行命令。

我的电脑macbook m1芯片,16G内存,我选择的是14b,表示有140亿个参数。对应命令:ollama run deepseek-r1:14b

二、部署deepseek R1模型

在电脑命令行窗口,运行刚刚复制的命令:ollama run deepseek-r1:14b

模型9个G,我家是千兆宽带,下得挺快,10分钟左右就下载自动部署好了。

在命令行就可以直接使用deepseek R1。为了更加方便的使用,再搞一个web界面。

三 搭建web-ui

web界面选择的方案是:Open web ui。交互体验好些,用起来的效果类似chatgpt网页。

1、安装docker,docker官网:https://docker.p2hp.com/  选择对应版本直接安装就行.

2、docker运行web-ui

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

这个过程有一些慢,差不多花了30分钟。

最后,在浏览器中输入网址:http://localhost:3000/

开始使用web-ui:

初始化账号,然后就可以和deepseek-r1对话了。

这就是整个deepseek R1本地部署的流程,很简单吧。

以上就是本期的主要内容。如果觉得还不错,随手点个赞、在看、转发吧。如果想第一时间收到推送,也可以星标⭐一下。谢谢你的支持,我们,下期再见~

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OgtRzxr6hegnCFPzTuhmAVEA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券