首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型

【零门槛教程】3分钟使用腾讯云Lighthouse轻量应用服务器部署DeepSeek R1模型

原创
作者头像
宁子
修改2025-03-25 16:36:22
修改2025-03-25 16:36:22
3660
举报

在人工智能技术爆发式发展的今天,DeepSeek凭借其强大的自然语言处理能力成为开发者新宠。本文将手把手教学如何使用腾讯云Lighthouse轻量应用服务器部署DeepSeek。

一. 腾讯云Lighthouse一键部署

登录腾讯云Lighthouse控制台,选择「新建实例」

地域选择:推荐硅谷或新加坡区域,国内地域拉取ollama模型速度较慢

最低配置方案:锐驰型2核4G(支持1.5B模型推理)

镜像选择:务必勾选「DeepSeek-R1 1.5B」模板

腾讯云Lighthouse轻量应用服务器会自动一键部署DeepSeek R1、Ollama、Open WebUI、Nginx环境。

打开宝塔面板也能看到已经部署上

访问IP:3000,部署成功。

剩余内容自行设置即可。

二. 手动部署

登录腾讯云Lighthouse控制台,选择「新建实例」

地域选择:推荐硅谷或新加坡区域,国内地域拉取ollama模型速度较慢

最低配置方案:锐驰型2核4G(支持1.5B模型推理)

镜像选择:使用容器镜像 CentOS7.6-Docker26

安装ollama和deepseek-r1:

通过SSH连接服务器后执行:

代码语言:javascript
复制
# 一键部署Ollama框架
curl -fsSL https://ollama.com/install.sh | sh
# 验证安装
ollama --version

部署Open-WebUI

代码语言:javascript
复制
docker run -d -p 3000:8080 \
  -v ollama-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --name ollama-webui \
  ghcr.io/open-webui/open-webui:main

部署DeepSeek R1

访问Ollam的模型库,您将发现多种DeepSeek-R1模型版本,包括1.5B、7B、14B、32B等。选择适合服务器配置的版本,这次以1.5为例。

拷贝安装1.5b的命令到终端,等候下载完成。

代码语言:txt
复制
ollama run deepseek-r1:1.5b

访问IP:3000,部署成功。

openwebui的后台也可设置,如主页横幅、允许新用户注册等。

如修改主页横幅等

效果测试

不得不说,反应迅速,比官网稍慢,足够使用,安全性高。

总结

本期教程就到这里,我是宁子,此次通过腾讯云Lighthouse的敏捷部署,我们成功构建了具备企业级能力的DeepSeek模型,使用本套解决方案不仅获得私有化AI部署能力,更能构建起完整的ai相关产品生态。

原创声明:本文部署方案经实测验证,引用请注明出处。模型效果可能因硬件环境存在差异,建议生产环境部署前进行压力测试。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一. 腾讯云Lighthouse一键部署
  • 二. 手动部署
    • 部署Open-WebUI
    • 部署DeepSeek R1
  • 效果测试
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档