部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >【黄啊码】一篇文章告诉你如何本地部署DeepSeek

【黄啊码】一篇文章告诉你如何本地部署DeepSeek

作者头像
黄啊码
发布2025-02-05 08:12:03
发布2025-02-05 08:12:03
1670
举报

一、安装Ollama

如果想要在本地运行 DeepSeek 需要用到 Ollama 这个工具,也有同学用的是open-webui,反正哪个方便用哪个即可

ollama官网https://ollama.com/https://ollama.com/

https://ollama.com/

Ollama 安装包下载完成后直接双击安装即可

Ollama 安装完成后需要打开电脑的 CMD ,也就是命令提示符,只需要在电脑下方的搜索框中输入 cmd 即可打开。

打开后在命令提示符窗口中输入 ollama help 并按回车键,这个操作是为了验证这个软件是否安装成功,如果没有报错的话则表示这个软件安装成功。

二:下载部署 Deepseek 模型

回到 ollama 网址中,在网页上方搜索框中输入 Deepseek-r1,这个 Deepseek-r1 就是我们需要本地部署的一个模型。

点击 Deepseek-r1 后会进入详情界面,里面有多个参

数规模可供选择,从 1.5b 到 671b 都有。

需注意的是,这里我们需要根据自己电脑的硬件配置来选择模型大小,下面是一个模型大小配置参考表格,大家可根据自己的电脑配置来自行选择,当然了,部署的本地模型越大,使用的深度求索效果就越好。

选择好模型规模后,复制右边的一个命令。

命令复制完成后回到命令提示符窗口,将刚刚复制的命令粘贴到命令提示符窗口中并按回车键即可下载模型。

模型下载完成后,我们就直接可以在命令提示符面板中使用它了。

以后如果我们需要再次使用 Deepseek 这个模型的话,我们可以直接打开命令提示符窗口,只需要再次在命令符提示窗口中输入上面复制的指令即可。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-02-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、安装Ollama
  • 二:下载部署 Deepseek 模型
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档