步骤1:
网页搜索:https://ollama.com/,进入ollama官网页面
步骤2:
不需要登录,直接点击Download下载,自行选择不同的系统进行下载,等待安装就可以了
步骤3:
Window键(就是Alt左边的按键)+R键一起点击,弹出运行窗口,输入cmd
步骤4:
输入ollama -h ,如果显示 Large language model runner,说明成果了
步骤5:
再打开ollama 的官方网站,点击Models,点击deepseek-r1
步骤6:
就会进入deepseek-r1界面,默认好像是7b,可以自行根据配置选择大小
步骤7:
选择好大小后,直接点击右边的两个正方形叠加在一起的符号,这个是复制的意思
步骤8:
然后打开刚刚的黑色窗口,命令行(如果关掉了,直接win+R,然后输入cmd再打开)
步骤9:
粘贴刚刚复制的东西进去,按enter键,就开始下载了
步骤10:
启动deepseek命令,ollama run deepseek-r1:1.5b,1.5b可以替换成你下载的版本
下载大小的问题:Deepseek模型由最少至最大在所有电脑其实都能跑,只是快慢问题,不存在爆显存压根跑不动的问题,我13600k N卡 3080 10G显存 64gb 内存1.5b, 7b, 8b, 14b, 32b都能跑,当中跑的顺又快的量大LLM是14b,32b开始吐字有点慢,未至于不能用,70和471b确是有点慢了
领取专属 10元无门槛券
私享最新 技术干货