
在人工智能技术爆发式发展的今天,DeepSeek凭借其强大的自然语言处理能力成为开发者新宠。本文将手把手教学如何使用腾讯云Lighthouse轻量应用服务器部署DeepSeek。
登录腾讯云Lighthouse控制台,选择「新建实例」
地域选择:推荐硅谷或新加坡区域,国内地域拉取ollama模型速度较慢
最低配置方案:锐驰型2核4G(支持1.5B模型推理)
镜像选择:务必勾选「DeepSeek-R1 1.5B」模板

腾讯云Lighthouse轻量应用服务器会自动一键部署DeepSeek R1、Ollama、Open WebUI、Nginx环境。

打开宝塔面板也能看到已经部署上

访问IP:3000,部署成功。


剩余内容自行设置即可。

登录腾讯云Lighthouse控制台,选择「新建实例」
地域选择:推荐硅谷或新加坡区域,国内地域拉取ollama模型速度较慢
最低配置方案:锐驰型2核4G(支持1.5B模型推理)
镜像选择:使用容器镜像 CentOS7.6-Docker26

安装ollama和deepseek-r1:
通过SSH连接服务器后执行:
# 一键部署Ollama框架
curl -fsSL https://ollama.com/install.sh | sh
# 验证安装
ollama --version
docker run -d -p 3000:8080 \
-v ollama-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
--name ollama-webui \
ghcr.io/open-webui/open-webui:main访问Ollam的模型库,您将发现多种DeepSeek-R1模型版本,包括1.5B、7B、14B、32B等。选择适合服务器配置的版本,这次以1.5为例。

拷贝安装1.5b的命令到终端,等候下载完成。
ollama run deepseek-r1:1.5b访问IP:3000,部署成功。


openwebui的后台也可设置,如主页横幅、允许新用户注册等。


如修改主页横幅等


不得不说,反应迅速,比官网稍慢,足够使用,安全性高。
本期教程就到这里,我是宁子,此次通过腾讯云Lighthouse的敏捷部署,我们成功构建了具备企业级能力的DeepSeek模型,使用本套解决方案不仅获得私有化AI部署能力,更能构建起完整的ai相关产品生态。
原创声明:本文部署方案经实测验证,引用请注明出处。模型效果可能因硬件环境存在差异,建议生产环境部署前进行压力测试。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。