最新版ANToolsProV3.0迎来重大更新,不仅完美支持DeepSeek官方API和硅基流动API,更引入了强大的本地Ollama支持。面对DeepSeek官网经常出现的拥堵问题和token使用限制,本地部署方案的意义尤为重大。
一、本地部署方案:Ollama轻松搭建
好消息是,部署门槛并不高。只需一台配备16G内存和i7处理器的普通电脑,就能轻松运行14B级别的模型,完全满足日常使用需求。
Ollama作为一款专业的LLM管理工具,具备以下优势:
二、快速部署指南
https://ollama.com/download
下载适合自己系统的版2.空间管理技巧: 如果C盘空间紧张,可通过设置OLLAMA_MODELS
环境变量,将模型存储位置指向其他磁盘,如:D:\Ollama
3.模型部署: 打开命令行,根据需求选择:
ollama run deepseek-r1:14b
ollama run qwen2.5-coder:14b
三、ANToolsPro配置要点
软件亮点:
https://api.deepseek.com/v1/chat/completions
https://api.siliconflow.cn/v1/chat/completions
http://localhost:11434/api/chat
(设置API参数)
(右上角弹出的AI助手就可以对其进行提问了)
获取方式
软件下载链接:https://www.alipan.com/s/v9ffGQVKAkj
(提取码: z16j)
首次使用时,点击授权按钮并扫码联系获取授权。支持临时授权试用和正式授权两种方式。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有