随着deepseek的发展趋势越来越好,很多的云厂商开始纷纷布局AI赛道,其中以腾讯云行动最为快速,并且在不同的领域内取得不错的成绩,现在有很多免费体验搭建知识库或者智能客服的活动,该文章就是本人AI小白,从零开始搭建一个智能客服,希望给各位需要学习的同学一点借鉴意义。
基本知识介绍:
大模型知识引擎(LLM Knowledge Engine),是面向企业客户及合作伙伴的,基于大语言模型的知识应用构建平台,结合企业专属数据,提供知识问答等应用范式及原子能力接口服务,更快更高效地完成大模型应用的构建,推动大语言模型在企业服务场景的应用落地。各个行业的客户可以在行业大模型基础上,快速构建基于自然语言对话的自助问询服务,利用运营工具低成本提升服务质量。主要面向企业的运营维护人员,通过配置管理平台,编辑和维护客户级知识库、业务接口的有效性,通过机器学习的方式,提高运营人员训练机器人和维护知识库的效率。
地址:https://cloud.tencent.com/product/lke?from_column=20421&from=20421
从生成的内容可以看出来,每个回答的知识点,都是根据上传的文档进行学习以及理解的,如果回答存在错误,大模型搭建的时间可以进行订正的处理;这样一来可以细分到具体的领域,也会让该智能客服更加的符合要求。
选择通过网页进行导入:
可以使用测试文件:https://lke.cloud.tencent.com/preview?id=1846130420750448448&botBizId=1788753435024162816
进行上传即可;
输入发布说明之后,点击发布
等待一分钟左右就会显示发布成功
切换发布历史的tab页面
切换调用信息界面:
该界面一共有三个步骤:
地址:https://cloud.tencent.com/document/product/1759/106152
使用postman模拟访问接口
执行命令报错:
第四:执行全局变量文件夹指令
npm config set prefix “C:\Program Files\nodejs\node_global”
npm config set cache “C:\Program Files\nodejs\node_cache”
npm config set registry=http://registry.npm.taobao.org
对于一个中小型公司来说,如果想要搭建一个属于自己的智能客服,完全可以选用腾讯云的大模型进行搭建,对于成本与维护来说非常的方便,并且容易上手;后续如果知识库需要变动的话,只需要在知识库维护的地方上传不同的文档即可,对于特别专业的问题,也能根据回答的内容进行针对性的调整。现在整个流程都搭建完毕了,如果有兴趣的小伙伴可以留言进行交流。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。