首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

一分钟部署deepseek笔记

步骤1:

网页搜索:https://ollama.com/,进入ollama官网页面

步骤2:

不需要登录,直接点击Download下载,自行选择不同的系统进行下载,等待安装就可以了

步骤3:

Window键(就是Alt左边的按键)+R键一起点击,弹出运行窗口,输入cmd

步骤4:

输入ollama -h ,如果显示 Large language model runner,说明成果了

步骤5:

再打开ollama 的官方网站,点击Models,点击deepseek-r1

步骤6:

就会进入deepseek-r1界面,默认好像是7b,可以自行根据配置选择大小

步骤7:

选择好大小后,直接点击右边的两个正方形叠加在一起的符号,这个是复制的意思

步骤8:

然后打开刚刚的黑色窗口,命令行(如果关掉了,直接win+R,然后输入cmd再打开)

步骤9:

粘贴刚刚复制的东西进去,按enter键,就开始下载了

步骤10:

启动deepseek命令,ollama run deepseek-r1:1.5b,1.5b可以替换成你下载的版本

下载大小的问题:Deepseek模型由最少至最大在所有电脑其实都能跑,只是快慢问题,不存在爆显存压根跑不动的问题,我13600k N卡 3080 10G显存 64gb 内存1.5b, 7b, 8b, 14b, 32b都能跑,当中跑的顺又快的量大LLM是14b,32b开始吐字有点慢,未至于不能用,70和471b确是有点慢了

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OcpThcDpIrFJlMtcTisOIQ7A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券