本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库
docker pull cr2.fit2cloud.com/1panel/maxkb
如果拉取不下来就用docker.1ms.run/1panel/maxkb
docker run -d --name=maxkb --restart=always -p 8080:8080 \
-v ~/.maxkb:/var/lib/postgresql/data \
-v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages \
docker.1ms.run/1panel/maxkb
启动之后访问http://localhost:8080/ 用户名: admin 密码: MaxKB@123…
系统设置–>模型设置–>添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434
,API KEY随便设置一个就行
创建知识库–>向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化
创建应用–>设置AI模型–>关联知识库(添加知识库),参数设置:全文检索 --> 调试预览,输入问题 --> 保存并发布
MaxKB默认使用maxkb-embedding,向量数据库使用的是pgvector,相对于dify那么复杂的技术栈显得比较简单。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。