在人工智能技术飞速发展的今天,对话式AI已经成为了许多企业和个人的重要工具
LobeChat是一款现代化设计的开源LLMs(大语言模型)聊天应用与开发框架,它不仅支持多种模型服务提供商(如OpenAI、Claude 3、Gemini等),还支持本地大语言模型,并具备语音合成、多模态以及可扩展的插件系统等特点
本文将详细介绍如何在云服务器上快速搭建LobeChat,帮助你轻松拥有一个功能强大、属于自己的大模型~
首先我们需要有一台服务器,我采用腾讯云服务器作为演示,需要的同学可以查看活动,只需要一台轻量级服务器~
也可以选择虚拟机(内网自己访问)
本文介绍两种方式进行搭建,第一种使用docker进行安装LobeChat,第二种方式选择腾讯云应用镜像搭建
如果没docker环境可以使用命令进行安装apt install docker.io
接着拉取它的镜像进行运行,其中需要携带open ai密钥和密码两个参数
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=[Open ai的密钥] \
-e ACCESS_CODE=[待会使用要填的密码] \
--name lobe-chat \
lobehub/lobe-chat
open api密钥可以在这领取
使用 docker ps
查看容器是否成功运行
成功运行后,打开 公网IP:3210
进行访问(记得开放端口或关闭防火墙)
至此我们就快速完成了搭建,可以开始进行使用
另外一种基于腾讯云服务器应用镜像的方式更加简单,在选择系统时点击lobechat的应用镜像
系统安装完成后,点击应用信息,它会为我们自动生成密码
登陆实例后,使用 cat /home/lighthouse/user_credentials.txt
进行查看
进入3210端口后就完成了搭建,但还需要在右上角设置下Open AI的key
搭建好Lobe-Chat后就可以开始提问拉~
我们提问:使用Java实现一个快排算法
Lobe Chat 能够快速的返回示例!
你可以把Lobe Chat当作大模型的脚手架,让我们快速部署自己的大模型
如果觉得使用OpenAI较为麻烦,可以在设置中将使用的大模型设为国内的一些大模型,如混元、通义千问...
其他更多玩法参考官方文档
通过本文的指导,相信你已经掌握了如何在云服务器上快速搭建LobeChat聊天应用的方法
从选择合适的云服务器到个性化定制,每一步都详细地介绍了具体操作
希望你能充分利用这个平台,打造属于自己的强大聊天应用
如果你在搭建过程中遇到任何问题,欢迎随时查阅LobeChat的官方文档或寻求社区的帮助
祝你在聊天应用之旅中取得成功!
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。