前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >高性能应用服务 HAI - DeepSeek-r1 671B满血版

高性能应用服务 HAI - DeepSeek-r1 671B满血版

原创
作者头像
geru
修改于 2025-03-04 06:35:42
修改于 2025-03-04 06:35:42
7680
举报

一、环境说明

本环境预装 DeepSeek-r1 671B,仅支持在高性能应用服务HAI“旗舰型”算力套餐上运行。“旗舰型”算力套餐需开白使用,若有使用需求需提工单进行审核申请

二、使用说明

该环境为基础镜像环境,环境中包含两个容器环境:

1. DeepSeek-r1 671B fp8 模型容器

2. AnythingLLM 项目容器

实例创建后,会自动运行上述两个容器。由于 671B 模型较大,首次加载需1小时左右完成,加载完成后方可开始使用。

2.1 DeepSeek-r1 671B fp8 版本模型容器使用指引

1. DeepSeek容器进入

代码语言:txt
AI代码解释
复制
sudo docker exec -it deepseek-r1 bash

2. 模型加载进度查看。模型首次加载耗时约1小时,您可进入容器后输入如下命令查看加载进度。

代码语言:txt
AI代码解释
复制
tail -f /cfs/ds3_infer.log

3. 您可输入如下命令查看显存占用情况

代码语言:txt
AI代码解释
复制
nvidia-smi

2.2 API调用格式

DeepSeek-r1 671B满血版采用sglang框架部署,兼容openai调用格式,您可在模型加载完成后,使用api进行调用测试。注意,要将127.0.0.1替换为您实例的公网ip。

代码语言:txt
AI代码解释
复制
curl -X POST \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer ''" \
  -d '{
    "model": "/cfs",
    "messages": [
      {"role": "user", "content": "你好!你是谁!"}
    ],
    "temperature": 0.7
}' \
  "http://127.0.0.1:6399/v1/chat/completions"

2.2 AnythingLLM使用指引

AnythingLLM提供了可视化模型交互页面,您可使用AnythingLLM快速测试体验模型效果。

实例创建完成后,会自动拉起 AnythingLLM。您可使用实例公网ip:6889端口的方式,连接 AnythingLLM。

启动后,需先进行简单的初始化配置。

  • LLM providers选择 Local AI。
  • Local AI Base URL处替换为:本机的实例公网ip:6399/v1,修改完成后会自动选中671B模型。chat model sleelection处展示“/cfs”即符合预期。
代码语言:txt
AI代码解释
复制
http://本机实例公网ip:6399/v1

  • 其余选项按需配置,注意,若您设定密码,请对密码进行保存,重置密码流程较为复杂。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
拒绝繁忙!免费使用 deepseek-r1:671B 参数满血模型
相信大家都已经有体验过deepseek-r1的强大推理能力,由于其网页版本免费使用的原因,用户量激增、同时据传还遭受了大量的网络攻击,这使得过程不是很流程,经常收到类似下图的问题:
程序猿DD
2025/02/10
2.8K0
拒绝繁忙!免费使用 deepseek-r1:671B 参数满血模型
基于HAI + DeepSeek-R1 + AnythingLLM快速搭建自己的个人知识库
我之前曾经介绍基于腾讯云HAI,在几分钟快速部署一个属于自己的DeepSekk-R1大模型。这里就不再过多描述部署步骤了
算法一只狗
2025/02/06
3K0
高性能应用服务 HAI - DeepSeek-v3 0324版
本环境预装 DeepSeek-v3 0324版,支持function call,仅支持在高性能应用服务HAI“八卡旗舰型”算力套餐上运行。“八卡旗舰型”算力套餐需开白使用,若有使用需求需提工单进行审核申请。
geru
2025/04/28
1330
HAI DeepSeek R1 + AnythingLLM实现知识库
本环境基于高性能应用服务HAI-社区应用-DeepSeek AnythingLLM创建,支持进行知识库部署
geru
2025/02/11
1.6K10
DeepSeek-R1 671B 满血版完整本地部署教程,来了!!!
过年这几天,DeepSeek 算是彻底破圈了,火遍大江南北,火到人尽皆知。虽然网络版和 APP 版已经有了,但把模型部署到本地,才能真正实现独家定制,让 DeepSeek R1 的深度思考「以你为主,为你所用」。
码农编程进阶笔记
2025/02/19
13.3K0
DeepSeek-R1 671B 满血版完整本地部署教程,来了!!!
纯 CPU 硬刚 DeepSeek-R1 671b,10 秒远程体验
最近有篇文章很火!腾讯玄武实验室居然整出了个纯 CPU 硬刚 DeepSeek R1 的方案,只需不到 4 万块钱的硬件就能搞定 DeepSeek-R1-671B-Q8!
志航
2025/04/24
3510
纯 CPU 硬刚 DeepSeek-R1 671b,10 秒远程体验
满血版Q4大模型落地实战:4张22G显卡跑通DeepSeek671B全流程
最近不知道大家有没有遇到这种情况:一打开Deepseek官网或是APP,就弹出‘服务器正忙,请稍后再试’的提示。是的,没错,又双叒叕服务器爆满啦!这波操作让小伙伴们纷纷表示头疼不已。于是乎,一波本地部署大模型的热潮就这样被点燃了,但如果你想要体验的是那传说中的几百G‘满血版’DeepSeek R1 671B,那你可得准备好一个不小的预算。
YY的秘密代码小屋
2025/03/24
2500
满血版Q4大模型落地实战:4张22G显卡跑通DeepSeek671B全流程
腾讯云高性能应用服务HAI搭建开源大模型DeepSeek+AnythingLLM实现企业知识库
高性能应用服务(Hyper Application Inventor,HAI)是一款面向 AI 、科学计算的 GPU 应用服务产品,提供即插即用的澎湃算力与常见环境,助力中小企业及开发者快速部署 LLM。
星哥玩云
2025/03/21
2110
腾讯云高性能应用服务HAI搭建开源大模型DeepSeek+AnythingLLM实现企业知识库
私有化搭建、本地知识库、可联网查询、具备RAG能力的私人DeepSeek
以上方式在云端产品上实现 DeepSeek 的私有化部署,除此之外,也可以部署安装在本地机器上,如个人PC电脑、内网电脑等环境。
参谋带个长
2025/02/15
3.3K0
​快速体验!腾讯云算力HAI平台+满血deepseek-R1
近期deepseek继开源V3、R1大模型之后,又开源了Janus-Pro多模态支持,而且还支持app版本、网页版对话。
大侠之运维
2025/02/03
2K2
DeepSeek-R1 高性能应用服务 HAI 开箱即用
一、环境说明 HAI已提供DeepSeek-R1 1.5B及7B模型预装环境(DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R
geru
2025/01/31
12.5K5
满血版671B DeepSeek R1本地部署,详尽教程来了!
作者简介:伦敦大学学院(UCL)计算机系博士研究生,谷歌开发者专家,主要研究方向为学习优化,在 NeurIPS、ICLR、AAMAS、CIKM 等会议发表过学术论文,Circuit Transformer 作者,图书《简明的 TensorFlow 2》(https://tf.wiki)作者
SQL数据库开发
2025/02/20
7410
满血版671B DeepSeek R1本地部署,详尽教程来了!
高性能应用服务HAI - DeepSeek-R1 32B TACO 加速版
TACO-LLM(TencentCloud Accelerated Computing Optimization LLM),是腾讯云自研的一款面向大模型的推理框架,TACO-LLM默认集成在了TencentOS Server AI中,相比其他开源框架,TACO-LLM具有更好的稳定性、安全性以及更高的性能,通过采用自研的Lookahead 加速技术以及针对DeepSeek模型的输出特征优化,能够大幅提升DeepSeek的tokens吞吐能力。
geru
2025/03/10
1200
手慢无!671B 满血 DeepSeek-R1 白嫖系列之基石智算(青云出品)!5000 万 token 免费用!
你好,我是术哥,云原生开源技术布道者:KubeSphere Ambassador、Milvus 北辰使者。很高兴在「运维有术」与你相遇。
运维有术
2025/02/20
2990
手慢无!671B 满血 DeepSeek-R1 白嫖系列之基石智算(青云出品)!5000 万 token 免费用!
清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍
最近 DeepSeek 火爆全网,相信不少同学都看过所谓的清华大学 DeepSeek 提示词教程(笑)。清华大学是真干实事,近日开源最新的大模型推理引擎赤兔(chitu),是一个专注于效率、灵活性和可用性的高性能大语言模型推理框架。
AgenticAI
2025/03/18
1800
清华大学开源赤兔大模型推理引擎,DeepSeek 推理成本减半,吐字效率翻倍
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!
研究团队构成:香港科技大学、中国科学院软件研究所、西安电子科技大学和重庆大学。团队核心成员:香港科技大学的研究助理教授曹嘉伦,主要研究领域包括 AI&SE、人工智能测试、形式化验证等;中国科学院软件研究所副研究员陆垚杰,主要研究领域包括大语言模型及其应用。
机器之心
2025/03/10
1790
7B级形式化推理与验证小模型,媲美满血版DeepSeek-R1,全面开源!
DeepSeek-R1 联网搜索 高性能应用服务 HAI 部署
环境中提供 DeepSeek-R1 1.5B、7B、8B、14B、32B预装模型,并预装OpenWebUI,用户可在HAI中快速启动,进行测试并接入业务。
geru
2025/02/06
5.7K4
腾讯云HAI服务器上部署与调用DeepSeek-R1大模型的实战指南
上次我们大概了解了一下 DeepSeek-R1 大模型,并简单提及了 Ollama 的一些基本信息。今天,我们将深入实际操作,利用腾讯云的 HAI 服务器进行 5 分钟部署,并实现本地 DeepSeek-R1 大模型的实时调用。接下来,我们直接进入部署过程。
努力的小雨
2025/02/05
5290
DeepSeek 大模型基本认知(V3、R1、Janus、VL2 简单介绍以及本地部署)
“以开源精神和长期主义追求普惠 AGI” 是 DeepSeek 一直以来的坚定信念
山河已无恙
2025/02/25
1.3K0
DeepSeek 大模型基本认知(V3、R1、Janus、VL2 简单介绍以及本地部署)
ollama官网下载DeepSeek-R1实现本地部署
最近Deepseek被一再的推上热搜,那么我们今天来一起研究下利用OllaMa官网开源的DeepSeek-R1本地部署的整个流程以及所需要的工具。
用户4315931
2025/02/11
3970
ollama官网下载DeepSeek-R1实现本地部署
推荐阅读
相关推荐
拒绝繁忙!免费使用 deepseek-r1:671B 参数满血模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档