部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >可本地部署使用的大模型显存资源估算工具

可本地部署使用的大模型显存资源估算工具

作者头像
AlphaHinex
发布2025-02-19 23:53:11
发布2025-02-19 23:53:11
11100
代码可运行
举报
文章被收录于专栏:周拱壹卒周拱壹卒
运行总次数:0
代码可运行

🤗 Model Memory Calculator[1]🤗 Accelerate[2] 库提供的一个模型显存计算工具,可估算模型训练或推理时所需的显存大小。

但目前该在线工具无法正常使用,即使使用默认的模型名称,也会报在 Hub 中无法找到该模型:

在该 space 的 discussions[3] 中也有不少人遇到了此问题。

本文提供一种本地化部署运行此工具的方法,还可通过指定 HF_ENDPOINT 避免无法访问 Hugging Face 的问题。

本地部署

hotfix 版本

直接部署 https://huggingface.co/spaces/hf-accelerate/model-memory-usage/tree/main 中的内容会遇到一些问题,可使用 hotfix[4] 分支的版本,主要改动内容如下:

  1. requirements.txt 中增加 gradio==4.43.0 依赖。使用 README.md[5] 中设定的 Gradio SDK 版本 4.36.0 可能会遇到 与 pydantic 版本不匹配导致的报错[6],故升级至 4.43.0 版本。
  2. 修改 src/app.pyget_results 方法,修复官方应用中无法在 Hub 中找到模型的问题。
代码语言:javascript
代码运行次数:0
复制
diff --git a/src/app.py b/src/app.py
index 7a5e23e..500023a 100644
--- a/src/app.py
+++ b/src/app.py
@@ -7,6 +7,8 @@ from model_utils import calculate_memory, get_model


 def get_results(model_name: str, library: str, options: list, access_token: str):
+    if access_token == "":
+        access_token = None
     model = get_model(model_name, library, access_token)
     # try:
     #     has_discussion = check_for_discussion(model_name)

与原始版本具体区别可见 diff[7]

Python 3.8

代码语言:javascript
代码运行次数:0
复制
# conda create -n mmu-env python=3.8 -c https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
$ conda create -n mmu-env python=3.8
$ conda activate mmu-env

conda 环境安装可参照 miniconda[8]

部署

代码语言:javascript
代码运行次数:0
复制
$ git clone https://github.com/AlphaHinex/model-memory-usage.git
$ cd model-memory-usage

# pip install -r requirements.txt -i http://192.168.1.200/local/proxy/pypi/web/simple --trusted-host 192.168.1.200
# pip install -r requirements.txt
$ pip install -r requirements.txt -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple

# python src/app.py
$ HF_ENDPOINT=https://hf-mirror.com python src/app.py

Model Name or URL 处输入 deepseek-ai/DeepSeek-R1-Distill-Qwen-32B,在 Model Precision 选择要估算的精度,点击 Calculate Memory Usage

参考资料

[1]

🤗 Model Memory Calculator: https://huggingface.co/spaces/hf-accelerate/model-memory-usage

[2]

🤗 Accelerate: https://github.com/huggingface/accelerate

[3]

discussions: https://huggingface.co/spaces/hf-accelerate/model-memory-usage/discussions

[4]

hotfix: https://github.com/AlphaHinex/model-memory-usage

[5]

README.md: https://huggingface.co/spaces/hf-accelerate/model-memory-usage/blob/main/README.md

[6]

与 pydantic 版本不匹配导致的报错: https://blog.csdn.net/qq_38463737/article/details/142825145

[7]

diff: https://github.com/AlphaHinex/model-memory-usage/compare/main...hotfix

[8]

miniconda: https://alphahinex.github.io/2024/01/14/jupyter-lab-in-action/

JupyterLab 实战
JupyterLab 实战

JupyterLab 实战

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 周拱壹卒 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 本地部署
    • hotfix 版本
    • Python 3.8
    • 部署
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档