上期教程我们已实现在本地部署大模型,但尚未构建知识库系统。本期将带领读者完成基于 Cherony Studio+Ollama+DeepSeek 的私有知识库搭建,核心将采用 BGE-M3 向量模型实现知识嵌入。
北京智源人工智能研究院(BAAI)研发的 BGE-M3(多语言长文本向量检索模型),以其独到的 Multi-Linguality(多语言)、Multi-Functionality(多功能)和 Multi-Granularity(多粒度)特性,成为新一代通用向量模型标杆 1。
场景类型 | 典型用例 | 技术价值 |
---|---|---|
语义搜索 | 企业知识库检索/多语言电商搜索 | 多模态检索支持 |
文本分析 | 舆情分析/法律文档分类 | 无监督学习能力 |
跨语言对齐 | 新闻聚合/全球化知识库 | 统一语义空间映射 |
RAG 系统支持 | 智能客服/法律咨询 | LLM 增强生成准确率 |
ollama pull bge-m3
查看是否下载成功。
打开设置
找到 ollama
cherry 可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。
这里我添加了自己的 2023,2024 年度总结。
采用本地化部署方案具有三重价值:
明天我们将带领大家学习如何提问。