Aitrainee | 公众号:AI进修生
🌟免责声明:本文仅用于技术研究和学习,根据《生成式人工智能服务管理暂行办法》的要求,请勿对公众提供一切未经备案的生成式人工智能服务。任何个人、团队和企业,无论以何种方式使用这些项目、对何对象提供服务,所产生的一切后果,本文作者均不承担任何责任。
这个项目可以将其他大模型的API调用格式转换为OpenAI的格式(可配合免费LLM API使用),从而在调试和部署OpenAI API相关项目时,可以利用其他大模型提供商(如Coze(免费的gpt-4o)、通义千文、Gemini)。
通过标准的 OpenAI API 格式访问所有的大模型,开箱即用。
下图我创建了几个模型供应商:
具体有啥用的话,我们直接用一个部署实践来讲,可能比理解官方文档更快一些:
我们先去coze网站,随便创建一个机器人
把它发布到API勾上(config点进去记录key)
# 使用 SQLite 的部署命令:
docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api
# 使用 MySQL 的部署命令,在上面的基础上添加 `-e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi"`,请自行修改数据库连接参数,不清楚如何修改请参见下面环境变量一节。
# 例如:
docker run --name one-api -d --restart always -p 3000:3000 -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api
直接用第1行命令就行了,后面那行命令需要本机链接Mysql,第1行是轻量级的数据库,可以直接配置。要安装Docker的话,公众号消息菜单里有。
输入root 123456进入这个界面,然后点击添加渠道(就是准备添加其他的llm模型供应商)
模型类型选择coze,然后再把上面记录的key填入。
填入相关模型那一列需要填入coze bot的ID(就这个是特殊的,其他模型供应商就是常见的模型名称比如kimi、gpt-3.5、gpt4)
然后点击测试,通过之后,为不同的供应商模型添加令牌即可:
这一切做完之后,我们就可以测试了:
我写了个测试脚本(coze bot是可以接入联网功能,它有许多插件的我的脚本就让他搜索今天的ai新闻)
from openai import OpenAI
client = OpenAI(
base_url="http://ip:3000/v1/", # Ensure this URL is correct
api_key="sk-cJ1N9fBX8WGxxxx"
)
# System prompt to guide the conversation
session_messages = [
{"role": "system", "content": "搜索今天的ai新闻"}
]
print(session_messages[0]['content']) # Display the initial system prompt
# Start a continuous conversation with an initial user message
completion = client.chat.completions.create(
model="qwen-max", # Replace with your model
messages=session_messages, # Include the initial system message
temperature=0.8,
top_p=1,
max_tokens=1024,
stream=True
)
# Output the conversation responses
for chunk in completion:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].delta.content, end="")
它确实是搜索了今天的ai新闻,至此我们全部流程走完。
也就是说现在你可以用One-API提供的base_url( IP:本机、服务器,具体看你把one-api部署在哪,请看脚本)、api_key去对应替换其他openai相关开源项目的原始base_url、api_key了()
有些项目就只有Openai支持,可以直接把他的Openai依赖包改了(就用上面One-API的base_url ):
▲ 在openai 的__init__py 里
其他相关项目:
流程都是一样的,区别是,你得去找其他LLM供应商的base_url、api_key,最后配置完就生成了one-api提供的base_url、api_key
怎么找的话它其实是提供的,你就点击这里开始找就行了
当然,这上面的都是去他们官网申请付费api,我们其实可以使用其他的开源项目获取这些提供商的免费api(仅作学习研究,调试测试,免费的并不稳定):去公众号底部菜单查看LLM API。
下面提供One-API官方的文档介绍、相关资源、部署教程等,进一步支撑你的行动,以提升本文的帮助力。
▲ 简单原理示图
https://gateway.ai.cloudflare.com/v1/ACCOUNT_TAG/GATEWAY/openai
即可。THEME
即可,默认为 default
,欢迎 PR 更多主题,具体参考此处。# 使用 SQLite 的部署命令:
docker run --name one-api -d --restart always -p 3000:3000 -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api
# 使用 MySQL 的部署命令,在上面的基础上添加 `-e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi"`,请自行修改数据库连接参数,不清楚如何修改请参见下面环境变量一节。
# 例如:
docker run --name one-api -d --restart always -p 3000:3000 -e SQL_DSN="root:123456@tcp(localhost:3306)/oneapi" -e TZ=Asia/Shanghai -v /home/ubuntu/data/one-api:/data justsong/one-api
其中,-p 3000:3000
中的第一个 3000
是宿主机的端口,可以根据需要进行修改。
数据和日志将会保存在宿主机的 /home/ubuntu/data/one-api
目录,请确保该目录存在且具有写入权限,或者更改为合适的目录。
如果启动失败,请添加 --privileged=true
,具体参考 https://github.com/songquanpeng/one-api/issues/482 。
如果上面的镜像无法拉取,可以尝试使用 GitHub 的 Docker 镜像,将上面的 justsong/one-api
替换为 ghcr.io/songquanpeng/one-api
即可。
如果你的并发量较大,务必设置 SQL_DSN
,详见下面环境变量一节。Nginx 的参考配置:
server{
server_name openai.justsong.cn; # 请根据实际情况修改你的域名
location / {
client_max_body_size 64m;
proxy_http_version 1.1;
proxy_pass http://localhost:3000; # 请根据实际情况修改你的端口
proxy_set_header Host $host;
proxy_set_header X-Forwarded-For $remote_addr;
proxy_cache_bypass $http_upgrade;
proxy_set_header Accept-Encoding gzip;
proxy_read_timeout 300s; # GPT-4 需要较长的超时时间,请自行调整
}
}
之后使用 Let's Encrypt 的 certbot 配置 HTTPS:
# Ubuntu 安装 certbot:
sudo snap install --classic certbot
sudo ln -s /snap/bin/certbot /usr/bin/certbot
# 生成证书 & 修改 Nginx 配置
sudo certbot --nginx
# 根据指示进行操作
# 重启 Nginx
sudo service nginx restart
初始账号用户名为 root
,密码为 123456
。
仅启动方式不同,参数设置不变,请参考基于 Docker 部署部分
# 目前支持 MySQL 启动,数据存储在 ./data/mysql 文件夹内
docker-compose up -d
# 查看部署状态
docker-compose ps
1. 从 GitHub Releases 下载可执行文件或者从源码编译:
git clone https://github.com/songquanpeng/one-api.git
# 构建前端
cd one-api/web/default
npm install
npm run build
# 构建后端
cd ../..
go mod download
go build -ldflags "-s -w" -o one-api
2. 运行:
chmod u+x one-api
./one-api --port 3000 --log-dir ./logs
3. 访问 http://localhost:3000/ 并登录。初始账号用户名为 root
,密码为 123456
。
更加详细的部署教程参见此处。
SESSION_SECRET
设置一样的值。SQL_DSN
,使用 MySQL 数据库而非 SQLite,所有服务器连接同一个数据库。NODE_TYPE
为 slave
,不设置则默认为主服务器。SYNC_FREQUENCY
后服务器将定期从数据库同步配置,在使用远程数据库的情况下,推荐设置该项并启用 Redis,无论主从。FRONTEND_BASE_URL
,以重定向页面请求到主服务器。REDIS_CONN_STRING
,这样可以做到在缓存未过期的情况下数据库零访问,可以减少延迟。SYNC_FREQUENCY
,以定期从数据库同步配置。环境变量的具体使用方法详见此处。
详见 #175。
如果部署后访问出现空白页面,详见 #97。
欢迎 PR 添加更多示例。
项目主页:https://github.com/Yidadaa/ChatGPT-Next-Web
docker run --name chat-next-web -d -p 3001:3000 yidadaa/chatgpt-next-web
注意修改端口号,之后在页面上设置接口地址(例如:https://openai.justsong.cn/ )和 API Key 即可。
项目主页:https://github.com/Chanzhaoyu/chatgpt-web
docker run --name chatgpt-web -d -p 3002:3002 -e OPENAI_API_BASE_URL=https://openai.justsong.cn -e OPENAI_API_KEY=sk-xxx chenzhaoyu94/chatgpt-web
注意修改端口号、OPENAI_API_BASE_URL
和 OPENAI_API_KEY
。
项目主页:https://github.com/RockChinQ/QChatGPT
根据文档完成部署后,在config.py
设置配置项openai_config
的reverse_proxy
为 One API 后端地址,设置api_key
为 One API 生成的key,并在配置项completion_api_params
的model
参数设置为 One API 支持的模型名称。
可安装 Switcher 插件在运行时切换所使用的模型。
系统本身开箱即用。
你可以通过设置环境变量或者命令行参数进行配置。
等到系统启动后,使用 root
用户登录系统并做进一步的配置。
Note:如果你不知道某个配置项的含义,可以临时删掉值以看到进一步的提示文字。
在渠道
页面中添加你的 API Key,之后在令牌
页面中新增访问令牌。
之后就可以使用你的令牌访问 One API 了,使用方式与 OpenAI API 一致。
你需要在各种用到 OpenAI API 的地方设置 API Base 为你的 One API 的部署地址,例如:https://openai.justsong.cn
,API Key 则为你在 One API 中生成的令牌。
注意,具体的 API Base 的格式取决于你所使用的客户端。
例如对于 OpenAI 的官方库:
OPENAI_API_KEY="sk-xxxxxx"
OPENAI_API_BASE="https://<HOST>:<PORT>/v1"
可以通过在令牌后面添加渠道 ID 的方式指定使用哪一个渠道处理本次请求,例如:Authorization: Bearer ONE_API_KEY-CHANNEL_ID
。注意,需要是管理员用户创建的令牌才能指定渠道 ID。
不加的话将会使用负载均衡的方式使用多个渠道。
REDIS_CONN_STRING
:设置之后将使用 Redis 作为缓存使用。REDIS_CONN_STRING=redis://default:redispw@localhost:49153
SESSION_SECRET
:设置之后将使用固定的会话密钥,这样系统重新启动后已登录用户的 cookie 将依旧有效。SESSION_SECRET=random_string
SQL_DSN
:设置之后将使用指定数据库而非 SQLite,请使用 MySQL 或 PostgreSQL。SQL_DSN=root:123456@tcp(localhost:3306)/oneapi
SQL_DSN=postgres://postgres:123456@localhost:5432/oneapi
(适配中,欢迎反馈)oneapi
,无需手动建表,程序将自动建表。--network="host"
以使得容器内的程序可以访问到宿主机上的 MySQL。?tls=skip-verify
。SQL_MAX_IDLE_CONNS
:最大空闲连接数,默认为 100
。SQL_MAX_OPEN_CONNS
:最大打开连接数,默认为 1000
。Error 1040: Too many connections
,请适当减小该值。SQL_CONN_MAX_LIFETIME
:连接的最大生命周期,默认为 60
,单位分钟。LOG_SQL_DSN
:设置之后将为 logs
表使用独立的数据库,请使用 MySQL 或 PostgreSQL。FRONTEND_BASE_URL
:设置之后将重定向页面请求到指定的地址,仅限从服务器设置。FRONTEND_BASE_URL=https://openai.justsong.cn
MEMORY_CACHE_ENABLED
:启用内存缓存,会导致用户额度的更新存在一定的延迟,可选值为 true
和 false
,未设置则默认为 false
。MEMORY_CACHE_ENABLED=true
SYNC_FREQUENCY
:在启用缓存的情况下与数据库同步配置的频率,单位为秒,默认为 600
秒。SYNC_FREQUENCY=60
NODE_TYPE
:设置之后将指定节点类型,可选值为 master
和 slave
,未设置则默认为 master
。NODE_TYPE=slave
CHANNEL_UPDATE_FREQUENCY
:设置之后将定期更新渠道余额,单位为分钟,未设置则不进行更新。CHANNEL_UPDATE_FREQUENCY=1440
CHANNEL_TEST_FREQUENCY
:设置之后将定期检查渠道,单位为分钟,未设置则不进行检查。CHANNEL_TEST_FREQUENCY=1440
POLLING_INTERVAL
:批量更新渠道余额以及测试可用性时的请求间隔,单位为秒,默认无间隔。POLLING_INTERVAL=5
BATCH_UPDATE_ENABLED
:启用数据库批量更新聚合,会导致用户额度的更新存在一定的延迟可选值为 true
和 false
,未设置则默认为 false
。BATCH_UPDATE_ENABLED=true
BATCH_UPDATE_INTERVAL=5
:批量更新聚合的时间间隔,单位为秒,默认为 5
。BATCH_UPDATE_INTERVAL=5
GLOBAL_API_RATE_LIMIT
:全局 API 速率限制(除中继请求外),单 ip 三分钟内的最大请求数,默认为 180
。GLOBAL_WEB_RATE_LIMIT
:全局 Web 速率限制,单 ip 三分钟内的最大请求数,默认为 60
。TIKTOKEN_CACHE_DIR
:默认程序启动时会联网下载一些通用的词元的编码,如:gpt-3.5-turbo
,在一些网络环境不稳定,或者离线情况,可能会导致启动有问题,可以配置此目录缓存数据,可迁移到离线环境。DATA_GYM_CACHE_DIR
:目前该配置作用与 TIKTOKEN_CACHE_DIR
一致,但是优先级没有它高。RELAY_TIMEOUT
:中继超时设置,单位为秒,默认不设置超时时间。RELAY_PROXY
:设置后使用该代理来请求 API。USER_CONTENT_REQUEST_TIMEOUT
:用户上传内容下载超时时间,单位为秒。USER_CONTENT_REQUEST_PROXY
:设置后使用该代理来请求用户上传的内容,例如图片。SQLITE_BUSY_TIMEOUT
:SQLite 锁等待超时设置,单位为毫秒,默认 3000
。GEMINI_SAFETY_SETTING
:Gemini 的安全设置,默认 BLOCK_NONE
。GEMINI_VERSION
:One API 所使用的 Gemini 版本,默认为 v1
。THEME
:系统的主题设置,默认为 default
,具体可选值参考此处。ENABLE_METRIC
:是否根据请求成功率禁用渠道,默认不开启,可选值为 true
和 false
。METRIC_QUEUE_SIZE
:请求成功率统计队列大小,默认为 10
。METRIC_SUCCESS_RATE_THRESHOLD
:请求成功率阈值,默认为 0.8
。INITIAL_ROOT_TOKEN
:如果设置了该值,则在系统首次启动时会自动创建一个值为该环境变量值的 root 用户令牌。--port <port_number>
: 指定服务器监听的端口号,默认为 3000
。--port 3000
--log-dir <log_dir>
: 指定日志文件夹,如果没有设置,默认保存至工作目录的 logs
文件夹下。--log-dir ./logs
--version
: 打印系统版本号并退出。--help
: 查看命令的使用帮助和参数说明。注意,该演示站不提供对外服务:https://openai.justsong.cn
invalid character '<' looking for beginning of value
Failed to fetch
BASE_URL
。当前分组负载已饱和,请稍后再试
数据库一致性已被破坏,请联系管理员
?知音难求,自我修炼亦艰
抓住前沿技术的机遇,与我们一起成为创新的超级个体
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~