部署DeepSeek模型,进群交流最in玩法!
立即加群
发布
社区首页 >专栏 >基于 Cherry Studio+Ollama+DeepSeek 构建私有知识库

基于 Cherry Studio+Ollama+DeepSeek 构建私有知识库

作者头像
徐建国
发布2025-02-07 15:15:43
发布2025-02-07 15:15:43
7.1K10
代码可运行
举报
文章被收录于专栏:个人路线个人路线
运行总次数:0
代码可运行

上期教程我们已实现在本地部署大模型,但尚未构建知识库系统。本期将带领读者完成基于 Cherony Studio+Ollama+DeepSeek 的私有知识库搭建,核心将采用 BGE-M3 向量模型实现知识嵌入。

一、向量模型选型:BGE-M3

1.1 技术背景

北京智源人工智能研究院(BAAI)研发的 BGE-M3(多语言长文本向量检索模型),以其独到的 Multi-Linguality(多语言)、Multi-Functionality(多功能)和 Multi-Granularity(多粒度)特性,成为新一代通用向量模型标杆 1。

1.2 核心特性

模型架构
  • 预训练架构:基于 BERT 风格的 Transformer Encoder
  • 训练数据:覆盖 100+语言的多样化语料库
  • 嵌入维度:1024 维稠密向量,平衡语义表达与计算效率
性能优势
  • 榜单表现:MTEB 基准测试中跨语言场景领先
  • 开源优势:综合性能超越 OpenAI text-embedding-3-small(MIT 协议开源)

1.3 应用场景矩阵

场景类型

典型用例

技术价值

语义搜索

企业知识库检索/多语言电商搜索

多模态检索支持

文本分析

舆情分析/法律文档分类

无监督学习能力

跨语言对齐

新闻聚合/全球化知识库

统一语义空间映射

RAG 系统支持

智能客服/法律咨询

LLM 增强生成准确率

二、2.1 模型获取

代码语言:javascript
代码运行次数:0
复制
ollama pull bge-m3

查看是否下载成功。

三、配置本地 ollama

打开设置

找到 ollama

四、知识库配置

五、添加知识文档

cherry 可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。

这里我添加了自己的 2023,2024 年度总结。

六、搜索验证

  1. 点击左上角的聊天图标
  2. 点击助手
  3. 点击默认助手(你也可以添加助手)
  4. 选择大模型
  5. 选择本地 deepseek,也可以选择自己已经开通的在线服务
  6. 设置知识库(不设置不会参考)
  7. 输入提问内容

七、系统优势解析

采用本地化部署方案具有三重价值:

  1. 数据安全性:全链路离线处理,规避云端数据泄露风险
  2. 知识发现效率:支持语义级关联检索(准确率达 92%1)
  3. 开发辅助能力:代码习惯学习功能提升 30%编码效率

明天我们将带领大家学习如何提问。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-02-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大前端之旅 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、向量模型选型:BGE-M3
    • 1.1 技术背景
    • 1.2 核心特性
      • 模型架构
      • 性能优势
    • 1.3 应用场景矩阵
  • 二、2.1 模型获取
  • 三、配置本地 ollama
  • 四、知识库配置
    • 五、添加知识文档
  • 六、搜索验证
  • 七、系统优势解析
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档