进入ollama官网的Models页面,找到deepseek-r1模型,在模型型号的下拉栏里,根据你的显卡的显存大小找到适合的模型(若显存能覆盖模型大小,则能跑GPU,若不能覆盖模型大小,则会跑到CPU上,虽然都能用,但速度上可能会有偏差)
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。