部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >ollama v0.6.4 预发布版本震撼发布!Gemma 3 性能大升级,内存泄漏终修复!

ollama v0.6.4 预发布版本震撼发布!Gemma 3 性能大升级,内存泄漏终修复!

作者头像
福大大架构师每日一题
发布2025-04-04 15:40:02
发布2025-04-04 15:40:02
33900
代码可运行
举报
运行总次数:0
代码可运行
🔥 Ollama v0.6.4 预发布版重磅更新!

Ollama 作为当前最热门的本地大模型运行框架,近日推出了 v0.6.4 预发布版本,带来了一系列关键修复和优化!本次更新重点改进了 Gemma 3 的性能表现,并修复了多个影响体验的 Bug,AI 玩家们赶紧来一睹为快!

📌 主要更新内容
  1. 1. 🔍 /api/show 新增模型能力显示(如视觉支持)
    • • 现在通过 /api/show 接口可以查看模型的完整能力,包括是否支持多模态(如图像识别),方便开发者更灵活地调用模型功能。
  2. 2. 💾 Gemma 3 内存泄漏问题修复
    • • 此前 Gemma 3 在长时间推理时可能出现 OOM(内存不足)崩溃,v0.6.4 优化了内存管理,运行更稳定!
  3. 3. 🌍 Gemma 3 多语言字符处理增强
    • • 修复了 Gemma 3 对**非英文字符(如中文、日文)**的识别和生成问题,输出质量更高!
  4. 4. 🔄 DeepSeek 架构上下文偏移问题修复
    • • 部分采用 DeepSeek 架构的模型(如 DeepSeek LLM)在长文本生成时可能出现**“上下文错乱”**,本次更新彻底解决!
  5. 5. 📜 Gemma 3 长文本输出优化(512/1024 tokens 后质量下降修复)
    • • 在 v0.6.3 中,Gemma 3 生成超过 512 或 1024 tokens 后,回答质量会明显下降,新版本已修复该问题,长文生成更流畅!
  6. 6. 🖥️ Linux 平台新增 RDNA4 显卡支持(AMD 用户狂喜!)
    • • 现在 RDNA4 架构显卡(如 RX 7000 系列) 在 Linux 上也能更好地运行 Ollama!
🚀 如何升级?

如果你是 Ollama 用户,可以通过以下命令更新到最新预发布版本:

代码语言:javascript
代码运行次数:0
运行
复制
ollama upgrade

或手动下载最新版本:Ollama GitHub Release[1]

💡 为什么这次更新很重要?
  • Gemma 3 用户:终于不用再担心内存爆炸或长文本崩坏了!
  • 非英语用户:生成质量提升,特别是中文、日文等复杂字符的处理更精准。
  • AMD 显卡玩家:RDNA4 支持让 Linux 用户也能畅快跑模型!
📢 结语

Ollama v0.6.4 虽然只是预发布版,但已经解决了多个关键问题,特别是 Gemma 3 和 DeepSeek 架构的稳定性大幅提升!如果你是 AI 开发者或本地模型爱好者,强烈建议升级体验!

引用链接

[1] Ollama GitHub Release: https://github.com/ollama/ollama/releases

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-04-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 福大大架构师每日一题 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 🔥 Ollama v0.6.4 预发布版重磅更新!
  • 📌 主要更新内容
  • 🚀 如何升级?
  • 💡 为什么这次更新很重要?
  • 📢 结语
  • 引用链接
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档