这是一篇使用指南!!!
FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!
fastgpt其实就是使用了chatgpt的api(或者其他的大模型),构建自己的AI知识库
chatgpt是没办法获取到你自己的信息的
如果你想部署属于自己的gpt,或者是公司内部使用的
你可以选择fastgpt
适用人群:
目前我觉得比较好用的3个功能
通过导入文档或已有问答对进行训练,让 AI 模型能根据你的文档以交互式对话方式回答问题。
提供手动输入、直接分段、LLM 自动处理和 CSV 等多种数据导入途径,其中“直接分段”支持通过 PDF、WORD、Markdown 和 CSV 文档内容作为上下文。FastGPT 会自动对文本数据进行预处理、向量化和 QA 分割,节省手动训练时间,提升效能。
基于 Flow 模块的工作流编排,可以帮助你设计更加复杂的问答流程。例如查询数据库、查询库存、预约实验室等
不过这个功能比较复杂,需要一定的学习成本
https://github.com/labring/FastGPT
这个很简单
打开网址:https://platform.openai.com/account/api-keys
登录你的gpt账号 (你得会魔法)
创建一个keys即可
这里是在sealos上搭建的nginx,因为sealos是国外服务器,可以直接代理openai
不过它是收费的
搭建nginx的话,一天大概2毛钱
初次注册送5块钱
当然你也可以用其他方式
我们来开始搭建nginx
使用 Sealos 部署 Nginx 实现中转
Sealos
打开 「应用管理」,点击「新建应用」:
务必开启外网访问,复制外网访问提供的地址。
复制下面这段配置文件,注意 server_name
后面的内容替换成第二步的外网访问地址。
user nginx;
worker_processes auto;
worker_rlimit_nofile 51200;
events {
worker_connections 1024;
}
http {
resolver 8.8.8.8;
proxy_ssl_server_name on;
access_log off;
server_names_hash_bucket_size 512;
client_header_buffer_size 64k;
large_client_header_buffers 4 64k;
client_max_body_size 50M;
proxy_connect_timeout 240s;
proxy_read_timeout 240s;
proxy_buffer_size 128k;
proxy_buffers 4 256k;
server {
listen 80;
server_name tgohwtdlrmer.cloud.sealos.io; # 这个地方替换成 Sealos 提供的外网地址
location ~ /openai/(.*) {
proxy_pass https://api.openai.com/$1$is_args$args;
proxy_set_header Host api.openai.com;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
# 如果响应是流式的
proxy_set_header Connection '';
proxy_http_version 1.1;
chunked_transfer_encoding off;
proxy_buffering off;
proxy_cache off;
# 如果响应是一般的
proxy_buffer_size 128k;
proxy_buffers 4 256k;
proxy_busy_buffers_size 256k;
}
}
}
点开高级配置。
点击「新增配置文件」。
文件名写: /etc/nginx/nginx.conf
。
文件值为刚刚复制的那段代码。
点击确认。
填写完毕后,点击右上角的「部署」,即可完成部署。
*.cloud.sealos.io/openai/api
,如果提示 Invalid URL (GET /api)
则代表成功。 OPENAI_BASE_URL=https://tgohwtdlrmer.cloud.sealos.io/openai/v1
Done!