特色功能一览:
LibreChat 使用配置文件支持 OpenAI API 兼容服务librechat.yaml。
在项目根目录下创建一个名为 docker-compose.override.yml
的文件(如果它尚不存在)。
在文件中添加以下内容:
services:
api:
volumes:
- type: bind
source: ./librechat.yaml
target: /app/librechat.yaml
在此了解有关 Docker Compose Override 文件 的更多信息。
在项目根目录创建一个名为 librechat.yaml
的文件(如果它尚不存在)。
添加您的自定义端点:您可以在 AI 端点 部分查看兼容的端点。
该列表并不详尽,通常每个与 OpenAI API 兼容的服务都应该可以运行。自定义端点有很多选项。在此处查看所有选项:自定义端点对象结构。
作为示例,以下是OpenRouter和Ollama的配置:
version: 1.1.4
cache: true
endpoints:
custom:
- name: "OpenRouter"
apiKey: "${OPENROUTER_KEY}"
baseURL: "https://openrouter.ai/api/v1"
models:
default: ["gpt-3.5-turbo"]
fetch: true
titleConvo: true
titleModel: "current_model"
summarize: false
summaryModel: "current_model"
forcePrompt: false
modelDisplayLabel: "OpenRouter"
- name: "Ollama"
apiKey: "ollama"
baseURL: "http://host.docker.internal:11434/v1/"
models:
default: [
"llama3:latest",
"command-r",
"mixtral",
"phi3"
]
fetch: true # fetching list of models is not supported
titleConvo: true
titleModel: "current_model"
在项目根目录编辑现有的 .env
文件。如果不存在,则复制 .env.example
并重命名为 .env
。根据上述配置,OPENROUTER_KEY
需要设置环境变量:
OPENROUTER_KEY=your_openrouter_api_key
注意: 举例来说,本指南假设您已经独立设置了 Ollama,并且可以通过以下方式访问:
http://host.docker.internal:11434
host.docker.internal
是一个特殊的 DNS 名称,可解析为主机使用的内部 IP 地址。您可能需要将其更改为 Ollama 实例的实际 IP 地址。 在未来的指南中,我们将介绍如何设置 Ollama 以及 LibreChat。
现在您的文件已配置完毕,您可以运行该应用程序:
docker compose up
或者,如果您之前正在运行该应用程序,则可以用以下命令重新启动该应用程序:
docker compose restart
注意:执行命令之前请确保你的 Docker Desktop 或 Docker Engine 正在运行。
想了解最新更新?访问以下链接查看发布页面和更新说明:
⚠️ 请在更新前查看 https://www.librechat.ai/changelog 以了解重要更改。
想在本地运行 LibreChat?以下是详细步骤:
手册下载:
使用 Git:
git clone https://github.com/danny-avila/LibreChat.git
注意: 建议大多数用户使用 Docker Desktop。如果您正在寻找高级 docker/容器设置,尤其是远程服务器安装,请参阅我们的 Ubuntu Docker 部署指南。 安装后您可能需要重新启动计算机。
.env
文件:
.env.example
的内容复制到名为 .env
的新文件中。.env
文件配置指南。docker compose up
结论: 就这样!现在您应该可以在您的机器上本地运行 LibreChat。尽情享受吧!