首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >优云智算:借助强大镜像社区,开启AI算力新纪元!

优云智算:借助强大镜像社区,开启AI算力新纪元!

作者头像
用户11396661
发布于 2025-03-02 14:09:33
发布于 2025-03-02 14:09:33
31201
代码可运行
举报
文章被收录于专栏:C++开发C++开发
运行总次数:1
代码可运行

前言:

在当今数字化时代,云计算已成为推动企业创新与发展的强大动力。它以其卓越的成本效益,为企业节省了大量硬件投资与运维成本,让资源按需分配、灵活伸缩,完美契合业务的动态需求。其高度可靠的基础设施和先进的容错机制,确保了服务的持续可用性,让企业的数据安全无忧。同时,云计算的高效部署与自动化管理,极大地提升了工作效率,让企业能够快速响应市场变化,加速数字化转型的步伐。

此外,云计算平台提供的丰富应用与服务,如人工智能大数据分析等,为企业提供了强大的技术支持,助力企业在全球范围内拓展业务,实现高效服务。无论是初创企业还是大型集团,云计算都能根据需求灵活调整,提供定制化解决方案,满足不同行业的特殊需求。如今,越来越多的企业选择混合云多云战略,进一步增强了业务的灵活性与可靠性。

总之,云计算凭借其强大的性能与广泛的适用性,正成为企业数字化转型的首选方案。它不仅为企业提供了技术上的便利,更为企业的长远发展奠定了坚实基础。

平台介绍:

优云智算是UCloud优刻得 (优刻得科技股份有限公司)的GPU算力租赁平台,致力于为客户提供丰富多样的算力资源,支持按天、按小时这种短期租赁,也支持包月长期租赁,满足各类客户短期任务或者长期稳定项目的需求。计算资源存储网络一步配置,让客户拥有高效的云端编程和训练体验。结合镜像社区,提供多种场景的容器镜像,如:LLamaFactory,SD-webUI、LLM等,利用容器的快速拉起特性,实现一键部署,5分钟快速上手AI,打造一个丰富的公共镜像库,以支持多样化的云计算和AI多样场景的需求。

平台官网(优云智算 | Compshare - 面向AI场景的高性价比GPU算力租用): 通过该链接注册可获得新人20元赠金+独家赠送20元,高校/企业用户再享95折和10元赠金,4090显卡免费用一整天! 优云智算 | vLLM-DeepSeek-R1-Distill一键部署 通过次链接注册,有40元奖励,试用一切AI大模型。


为什么推荐《优云智算》

🏆1.丰富多彩的AI模型和镜像

镜像社区汇聚了大量AI模型镜像,涵盖深度学习、语音处理、图像生成、大语言模型等多个领域。例如,LLamaFactory、SD-webUI、LLM等热门AI应用的镜像均已在社区上线。此外,DeepSeek系列镜像(如Janus-Pro、DeepSeek-R1等)也已支持一键部署

🏆2.一键部署与快速上手:

用户可以直接从镜像社区选取所需的镜像,并在部署GPU实例时一键使用,大大降低了技术门槛和部署时间。例如,通过选择社区中的特定镜像,用户可以在几分钟内启动一个预配置的AI环境。

🏆3.试用各系列的AI大模型:

优云智算 | vLLM-DeepSeek-R1-Distill一键部署


DeepSeek镜像(vLLM-DeepSeek-R1-Distill)

1.部署登录:

在这里,我们购买这个模型以后,等待片刻就帮我们部署好了。我们进入控制台,就能登录。

复制密码,就能进行登录。

2.启动:

优云智算力推的就是4090。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# 启动 vLLM api 服务
 vllm serve  <大模型路径> --port 8000
推荐配置4090:1卡
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# DeepSeek-R1-Distill-Qwen-1.5B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B --port 8000
 # DeepSeek-R1-Distill-Qwen-7B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B --port 8000 --max-model-len 65536
 # DeepSeek-R1-Distill-Llama-8B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Llama-8B --port 8000 --max-model-len 17984
推荐配置4090:2卡
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# DeepSeek-R1-Distill-Qwen-14B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-14B --port 8000 -tp 2 --max-model-len 59968
推荐配置4090:4卡
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# DeepSeek-R1-Distill-Qwen-32B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --port 8000 -tp 4 --max-model-len 65168
推荐配置4090:8卡
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# DeepSeek-R1-Distill-Llama-70B
 vllm serve  /model/HuggingFace/deepseek-ai/DeepSeek-R1-Distill-Llama-70B --port 8000

在选择配置时,建议根据实际需求、预算和硬件条件综合考虑。

3.注意要开放8000端口号

同样进入控制台,进入防火墙配置。

0.0.0.0表示不限制源端口号,后面的就是开放的端口号、


安装图形化界面(GUI)

Ubuntu 系统中,安装图形化界面(GUI)是一个相对简单的过程。Ubuntu 默认使用 GNOME 作为桌面环境,但您也可以选择其他桌面环境,如 KDE Plasma、XFCELXDE 等。以下是安装图形化界面的详细步骤:

1. 安装默认的 GNOME 桌面环境

如果您使用的是 Ubuntu Server 版本(无图形界面),可以通过以下命令安装默认的 GNOME 桌面环境:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt update
sudo apt install ubuntu-desktop

安装完成后,重启系统以加载图形界面:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo reboot

2. 安装其他桌面环境

如果您希望使用其他桌面环境,可以安装以下桌面环境之一:

1)KDE Plasma

KDE Plasma 是一个功能丰富的桌面环境,适合需要强大功能和高度定制化的用户。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt update
sudo apt install kubuntu-desktop
2)XFCE

XFCE 是一个轻量级的桌面环境,适合资源有限的系统或需要快速启动的场景。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt update
sudo apt install xubuntu-desktop
3)LXDE

LXDE 是一个极简的桌面环境,适合老旧硬件或需要极致轻量化的用户。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt update
sudo apt install lubuntu-desktop
4)Mate

Mate 是一个基于 GNOME 2 的桌面环境,适合喜欢传统 GNOME 界面的用户。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt update
sudo apt install mate-desktop-environment

3. 配置显示管理器

安装桌面环境后,系统会自动配置显示管理器(如 GDM、LightDM 等)。如果您需要手动配置显示管理器,可以使用以下命令:

(1)安装 LightDM

LightDM 是一个轻量级的显示管理器,适合大多数桌面环境。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt install lightdm

安装完成后,选择 LightDM 作为默认显示管理器:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo dpkg-reconfigure lightdm
(2)安装 GDM

GDM 是 GNOME 默认的显示管理器,适合 GNOME 桌面环境。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo apt install gdm3

安装完成后,选择 GDM 作为默认显示管理器:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo dpkg-reconfigure gdm

4. 启动图形界面

安装完成后,您可以重启系统以加载图形界面:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo reboot

如果系统没有自动启动图形界面,可以手动启动图形界面:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
sudo systemctl set-default graphical.target

5. 验证图形界面

登录后,您应该看到桌面环境的图形界面。如果界面未正常显示,可以尝试以下命令重新启动显示管理器:

代码语言:javascript
代码运行次数:1
运行
AI代码解释
复制
sudo systemctl restart lightdm
# 或
sudo systemctl restart gdm3

6. 注意事项 安装过程可能需要较长时间:根据您的网络速度和系统性能,安装桌面环境可能需要几分钟到十几分钟。 磁盘空间:确保系统有足够的磁盘空间。桌面环境通常需要 2-3GB 的磁盘空间。 系统资源:轻量级桌面环境(如 XFCE 或 LXDE)更适合老旧硬件或资源有限的系统。

通过以上步骤,您可以在 Ubuntu 系统中成功安装和配置图形化界面。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
使用 Run:ai Model Streamer 实现模型的高效加载
随着大语言模型(LLM)在生产环境中展现出日益复杂的动态特性,其部署过程的挑战性也随之增加。这一趋势进一步凸显了采用高效模型加载策略的必要性,从而确保模型能够快速响应并满足不断变化的业务需求。大语言模型通常需要数十到数百 GB 的内存,在延迟和资源利用方面带来了重大挑战,尤其是在服务需要根据不可预测的用户需求进行扩展时。此时,冷启动问题尤为突出:模型加载到 GPU 内存所需的时间可能会带来显著延迟,严重影响最终用户体验和机器学习系统的运行效率。
Se7en258
2025/06/09
1540
使用 Run:ai Model Streamer 实现模型的高效加载
全新大模型开源,腾讯(int4能打DeepSeek) Vs 谷歌(2GB运行多模态)
试用地址:https://hunyuan.tencent.com/?model=hunyuan-a13b
Ai学习的老章
2025/06/30
1700
全新大模型开源,腾讯(int4能打DeepSeek) Vs 谷歌(2GB运行多模态)
DeepSeek-容器化(Docker)部署vLLM和Open WebUI
前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。环境还是使用ubuntu20.4,复用上个环境已经安装GPU驱动和模型文件。
运维小路
2025/03/06
3.6K0
DeepSeek-容器化(Docker)部署vLLM和Open WebUI
DeepSeek-多机多卡集群部署
前面我们无论是直接部署,还是容器部署都还是单机的模型,受单机GPU限制,并不能跑比较大的模型,今天我们将用多台机器组成一个集群来跑一个更大的模型。
运维小路
2025/03/06
1.5K0
DeepSeek-多机多卡集群部署
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
vLLM(Very Large Language Model Serving)是由加州大学伯克利分校团队开发的高性能、低延迟大语言模型(LLM)推理和服务框架。其核心创新在于PagedAttention技术,通过将注意力键值(KV)缓存分页管理,显著提升显存利用率并降低碎片化问题,使吞吐量比传统框架(如Hugging Face Transformers)提升24倍。该框架支持连续批处理、动态显存分配和多GPU并行推理,能够高效处理8k+长上下文请求,并兼容OpenAI API接口,开发者可快速部署Hugging Face模型。通过集成FP8、AWQ等量化技术,vLLM在保证推理精度的同时大幅降低资源消耗,目前已成为企业级AI部署(如DeepSeek-R1 671B模型分布式集群)的首选方案。
AI浩
2025/03/17
7640
【大模型部署实战】VLLM+OpenWebUI实现DeepSeek模型部署,文末有福利
DeepSeek-基于vLLM部署
注:使用不同的推理模型,需要的模型文件是不一样的,比如我前面用的ollama下载的模型,则只能在ollma里面使用,不能拿到vLLM来使用。
运维小路
2025/03/03
1.5K0
DeepSeek-基于vLLM部署
DeepSeek r1本地部署手把手教程
https://developer.nvidia.com/rdp/cudnn-archive
蛋黄
2025/03/03
2560
在本地电脑部署自己的 DeepSeek 大模型 AI:小白也能轻松上手
最近 DeepSeek 大模型 AI 火遍全网,我也忍不住去了解了一番。尝试在本地部署后,发现整个过程非常简单,于是决定记录下来,分享给大家。本文将以最基础的方式演示如何部署,无需使用 Docker 容器,也不需要“魔法上网”,即使是计算机小白也能按照步骤轻松完成。
后端码匠
2025/02/06
3.4K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
我记得,梦的开始,源于Ollama。很早以前的一篇文章教大家如何通过 Ollama 来使用开源 LLM,许多人最初接触 AI 时也是从Ollama开始的。Ollama 之所以出色,是因为它使用了 GGML 格式,这是一种‘轻量版’的大语言模型,以较低精度运行,能够轻松适配普通硬件。这使得在本地系统上运行这些模型变得简单高效,真正为 AI 的广泛应用铺平了道路。
AI进修生
2024/12/02
17.2K0
Ollama 升级!支持一键拉取Huggingface上所有的模型,太方便了!(vLLM、Fastgpt、Dify、多卡推理)
DeepSeek-Open WebUI部署
前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。
运维小路
2025/03/04
6830
DeepSeek-Open WebUI部署
腾讯云轻量应用服务器通过VNC搭建Ubuntu图形界面
注意 如果您自定义的密码位数大于8位,系统默认只截取前8位作为您的VNC登录密码。 命令行回显如下图所示的信息时,表示VNC启动成功。 主机名:1表示已启动的VNC的端口号,在后续步骤中,需要在VNC远程连接工具中使用Ubuntu服务器公网IP:1远程连接Ubuntu图形界面。
青阳
2021/07/16
14.4K4
腾讯云轻量应用服务器通过VNC搭建Ubuntu图形界面
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
2025年1月,中国春节期间,DeepSeek爆火,称为全球最炙手可热的大模型。DeepSeek一路 “狂飙”,在美国科技界和美股市场掀起惊涛骇浪,1月27日,美国三大股指开盘即暴跌,英伟达、微软、谷歌母公司Alphabet、Meta等美国主要科技股均遭遇股市地震,其中英伟达跌近17%,单日市值蒸发约6000亿美元,创美股最高纪录。
Francek Chen
2025/02/12
1.8K0
【DeepSeek】在本地计算机上部署DeepSeek-R1大模型实战(完整版)
如何在 Ubuntu 服务器上安装桌面环境(GUI)
你想在你的 Ubuntu 服务器上安装 GUI 吗?大部分情况下你是可以安装的,在本教程中我会详细介绍安装的步骤。
用户8639654
2021/09/13
5.4K0
【HuggingFace项目】:Open-R1 - DeepSeek-R1 大模型开源复现计划
Open-R1 是由 HuggingFace 发布的一个完全开放的项目,旨在通过三个主要步骤复现 DeepSeek-R1 的完整训练流程。这个项目的目标是让更多人能够理解和使用 DeepSeek-R1 的技术方案,从而推动大模型技术的发展和应用。
致Great
2025/01/27
5720
【HuggingFace项目】:Open-R1 - DeepSeek-R1 大模型开源复现计划
解决Ubuntu系统/usr/lib/xorg/Xorg占用显卡内存问题原创
在Ubuntu系统中,/usr/lib/xorg/Xorg进程占用显卡内存的问题可能会影响系统性能,特别是在使用GPU进行计算任务时。以下是一些解决方法,可以帮助你减少或解决这个问题:
AI拉呱
2024/06/09
2.6K1
在 TKE 上部署 AI 大模型
本文介绍如何在 TKE 上部署 AI 大模型,以 DeepSeek-R1 为例,使用 Ollama、vLLM 或 SGLang 运行大模型并暴露 API,然后使用 OpenWebUI 提供交互界面。
imroc
2025/02/20
3910
在 TKE 上部署 AI 大模型
AI 最佳实战:最简单、最强大的 DeepSeek R1 本地部署及配置建议指南
只会用 Ollama 本地运行 DeepSeek R1 等大模型?本文介绍一款简单、强大的本地运行各种 LLM 的工具,LM Studio。
运维有术
2025/02/12
7600
AI 最佳实战:最简单、最强大的 DeepSeek R1 本地部署及配置建议指南
什么是DeepSeek-R1蒸馏模型?
DeepSeek在DeepSeek-V3之后发布了另一个革命性的模型,即DeepSeek-R1,这看起来是一个重大的发布,因为这个模型在几个基准测试中已经超越了OpenAI-o1,即SOTA推理模型。
码农编程进阶笔记
2025/04/26
2830
什么是DeepSeek-R1蒸馏模型?
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的
⭐️ 作者:前端修罗场 ⭐️ 本文名称:我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的 ⭐️ 首发:CSDN NVIDIA 企业开发者社区
前端修罗场
2023/10/07
9740
我的NVIDIA开发者之旅——作为一名初学者,我是如何开启 NVIDIA Jetson Nano 开发的
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
vLLM(Virtual Large Language Model)是由加州大学伯克利分校团队开发的高性能大模型推理框架,其核心特点围绕显存优化、高吞吐量、灵活性和易用性展开。
wayn
2025/04/09
1.2K0
企业级模型推理部署工具vllm使用指南 - 部署最新deepseek-v3-0324模型
推荐阅读
相关推荐
使用 Run:ai Model Streamer 实现模型的高效加载
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验