curl -fsSL https://ollama.com/install.sh | sh
ollama --version
检测 Ollama
是否安装成功。Ollama DeepSeek
模型库提供多个 Distilled models
,基于配置考虑选择 DeepSeek-R1-Distill-Qwen-1.5B
。ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
Tips:
直接执行 ollama run deepseek-r1:1.5b 会执行两条命令:
ollama pull deepseek-r1:1.5b
ollama run deepseek-r1:1.5b
Ollama
运行支持命令行和API接口两种方式,参考文档:https://github.com/ollama/ollamacurl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:1.5b",
"prompt":"Why is the sky blue?",
"stream": false
}'
👋 你好,我是 Lorin 洛林,一位 Java 后端技术开发者!座右铭:Technology has the power to make the world a better place.
🚀 我对技术的热情是我不断学习和分享的动力。我的博客是一个关于Java生态系统、后端开发和最新技术趋势的地方。
🧠 作为一个 Java 后端技术爱好者,我不仅热衷于探索语言的新特性和技术的深度,还热衷于分享我的见解和最佳实践。我相信知识的分享和社区合作可以帮助我们共同成长。
💡 在我的博客上,你将找到关于Java核心概念、JVM 底层技术、常用框架如Spring和Mybatis 、MySQL等数据库管理、RabbitMQ、Rocketmq等消息中间件、性能优化等内容的深入文章。我也将分享一些编程技巧和解决问题的方法,以帮助你更好地掌握Java编程。
🌐 我鼓励互动和建立社区,因此请留下你的问题、建议或主题请求,让我知道你感兴趣的内容。此外,我将分享最新的互联网和技术资讯,以确保你与技术世界的最新发展保持联系。我期待与你一起在技术之路上前进,一起探讨技术世界的无限可能性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。