Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >GPT大语言模型Alpaca-lora本地化部署实践

GPT大语言模型Alpaca-lora本地化部署实践

作者头像
京东技术
发布于 2023-08-22 07:39:21
发布于 2023-08-22 07:39:21
1.1K02
代码可运行
举报
文章被收录于专栏:京东技术京东技术
运行总次数:2
代码可运行

Tech 导读 大模型技术日新月异,开源大模型层出不穷,本文针对开源大模型Alpaca-lora进行本地化部署实践,探索大模型在部署和使用方面的细节。

01

模型介绍

在今年的敏捷团队建设中,我通过Suite执行器实现了一键自动化单元测试。Juint除了Suite执行器还有哪些执行器呢?由此我的Runner探索之旅开始了!

Alpaca模型是斯坦福大学研发的LLM(Large Language Model,大语言)开源模型,是一个在52K指令上从LLaMA 7B(Meta公司开源的7B)模型微调而来,具有70亿的模型参数(模型参数越大,模型的推理能力越强,当然随之训练模型的成本也就越高)。

LoRA,英文全称Low-Rank Adaptation of Large Language Models,直译为大语言模型的低阶适应,这是微软的研究人员为了解决大语言模型微调而开发的一项技术。如果想让一个预训练大语言模型能够执行特定领域内的任务,一般需要做fine-tuning,但是目前推理效果好的大语言模型参数维度非常非常大,有些甚至是上千亿维,如果直接在大语言模型上做fine-tuning,计算量会非常的大,成本也会非常的高。LoRA的做法是冻结预训练好的模型参数,然后在每个Transformer块里注入可训练的层,由于不需要对模型的参数重新计算梯度,所以,会大大的减少计算量。

具体如下图所示,核心思想是在原始预训练模型增加一个旁路,做一个降维再升维的操作。训练的时候固定预训练模型的参数,只训练降维矩阵A与升维矩阵B。而模型的输入输出维度不变,输出时将BA与预训练语言模型的参数叠加。用随机高斯分布初始化 A,用0矩阵初始化B。这样能保证训练时,新增的旁路BA=0,从而对模型结果没有影响。在推理时,将左右两部分的结果加到一起,即h=Wx+BAx=(W+BA)x,所以,只要将训练完成的矩阵乘积BA跟原本的权重矩阵W加到一起作为新权重参数替换原始预训练语言模型的W即可,不会增加额外的计算资源。LoRA的最大优势是训练速度更快,使用的内存更少。

图1.LoRA的做法

本文进行本地化部署实践的Alpaca-lora模型就是Alpaca模型的低阶适配版本。本文将对Alpaca-lora模型本地化部署、微调和推理过程进行实践并描述相关步骤。

02

GPU服务器环境部署

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。

本文进行部署的GPU服务器具有4块独立的GPU,型号是Tesla P40(如下图所示),目前市面上主流的高性能显卡型号是基于4nm技术的RTX 4090和基于8nm技术的RTX 3090,但价格都比较昂贵,非生产环境能用上Tesla P40已经很满足啦:),单个Tesla P40算力相当于60个同等主频CPU的算力。

图2.GPU服务器详情示意

拿到GPU服务首先就是安装显卡驱动和CUDA驱动(是显卡厂商NVIDIA推出的运算平台。CUDA是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题)。显卡驱动需要到NVIDIA的官方网站去查找相应的显卡型号和适配的CUDA版本,下载地址:https://www.nvidia.com/Download/index.aspx ,选择相应的显卡和CUDA版本就可以下载驱动文件啦。

图3.英伟达官网操作示意

下载的文件是NVIDIA-Linux-x86_64-515.105.01.run,这是一个可执行文件,用root权限执行即可,注意安装驱动过程中不能有运行的nvidia进程,如果有需要全部kill掉,否则会安装失败,如下图所示:

图4.注意安装驱动过程中不能有运行的nvidia进程

然后一路next,没有报错的话就安装成功啦。为了后续查看显卡资源情况,最好还是再安装一个显卡监控工具,比如nvitop,用pip install nvitop即可,这里注意,由于不同服务器python版本有差异,最好安装anaconda部署自己的私有python空间,防止运行时报各种奇怪的错误,具体步骤如下:

1.安装anaconda 下载方式:wget https://repo.anaconda.com/archive/Anaconda3-5.3.0-Linux-x86_64.sh安装命令:sh Anaconda3-5.3.0-Linux-x86_64.sh 每个安装步骤都输入“yes”,最后conda init后完成安装,这样每次进入安装用户的session,都会直接进入自己的python环境。如果安装最后一步选择no,即不进行conda init,则后续可以通过source /home/jd_ad_sfxn/anaconda3/bin/activate来进入到私有的python环境。

2.安装setuptools 接下来需要安装打包和分发工具setuptools,下载地址:wget https://files.pythonhosted.org/packages/26/e5/9897eee1100b166a61f91b68528cb692e8887300d9cbdaa1a349f6304b79/setuptools-40.5.0.zip安装命令:unzip setuptools-40.5.0.zip cd setuptools-40.5.0/ python setup.py install

3.安装pip 下载地址:wget https://files.pythonhosted.org/packages/45/ae/8a0ad77defb7cc903f09e551d88b443304a9bd6e6f124e75c0fbbf6de8f7/pip-18.1.tar.gz安装命令:tar -xzf pip-18.1.tar.gz cd pip-18.1 python setup.py install

至此,漫长的安装过程终于告一段落了,现在创建一个私有的python空间,执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
conda create -n alpaca python=3.9
conda activate alpaca

然后验证一下,如下图所示说明已经创建成功啦。

图5.创建成功示意

03

模型训练

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。

上文已经把GPU服务器的基础环境安装好了,下面就要开始激动人心的模型训练了(激动ing),在训练之前首先需要下载模型文件,下载地址:https://github.com/tloen/alpaca-lora ,整个模型都是开源的,真好!首先把模型文件下载到本地,执行git clone https://github.com/tloen/alpaca-lora.git。

本地会有文件夹alpaca-lora,然后cd alpaca-lora到文件夹内部执行。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
pip install -r requirements.txt

这个过程可能会比较慢,需要从网上下载大量的依赖包,过程中可能也会报各种包冲突,依赖没有等问题,这块只能见招拆招,缺什么装什么(解决包依赖和版本冲突确实是个头疼的事情,不过这步做不好,模型也跑不起来,所以只能耐心的一点一点解决),这里痛苦的过程就不赘述了,因为不同机器可能遇到的问题也不太一样,参考意义不是很大。

如果安装过程执行完成,并没再有报错信息,并提示Successful compeleted,那么恭喜你啦,万里长征已经走完一半啦,你已经离成功很近了,再坚持一下下就很有可能成功啦:)。

由于目标是对模型进行fine-tuning,所以得有一个fine-tuning的目标,由于原始模型对中文支持并不好,所以目标就有了,用中文语料库让模型更好的支持中文,这个社区也准备好了,直接下载中文的语料库就好了,在本地执行 wget https://github.com/LC1332/Chinese-alpaca-lora/blob/main/data/trans_chinese_alpaca_data.json?raw=true ,将后面模型训练用到的语料库下载到alpaca-lora根目录下(后面方便使用)。语料库的内容就是很多的三元组(instruction,input,output,如下图所示),instruction就是指令,让模型做什么事,input就是输入,output是模型的输出,根据指令和输入,训练模型应该输出什么信息,让模型能够更好的适应中文。

图6.语料库的内容就是很多的三元组

好的,到现在为止,万里长征已经走完2/3了,别着急训练模型,现在验证一下GPU环境和CUDA版本信息,还记得之前安装的nvitop嘛,现在就用上了,在本地直接执行nvitop,就可以看到GPU环境和CUDA版本信息了,如下图:

图7.执行nvitop可以看到GPU环境和CUDA版本信息

在这里能够看到有几块显卡,驱动版本和CUDA版本等信息,当然最重要的还能看到GPU资源的实时使用情况。

怎么还没到模型训练呢,别着急呀,这就来啦。

先到根目录下然后执行训练模型命令:

如果是单个GPU,那么执行命令即可:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
python finetune.py \
    --base_model 'decapoda-research/llama-7b-hf' \
    --data_path 'trans_chinese_alpaca_data.json' \
    --output_dir './lora-alpaca-zh'

如果是多个GPU,则执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
WORLD_SIZE=2 CUDA_VISIBLE_DEVICES=0,1 torchrun \
--nproc_per_node=2 \
--master_port=1234 \
finetune.py \
--base_model 'decapoda-research/llama-7b-hf' \
--data_path 'trans_chinese_alpaca_data.json' \
--output_dir './lora-alpaca-zh'

如果可以看到进度条在走,说明模型已经启动成功啦。

图8.模型启动成功示意

在模型训练过程中,每迭代一定数量的数据就会打印相关的信息,会输出损失率,学习率和代信息,如上图所示,当loss波动较小时,模型就会收敛,最终训练完成。

训练用的是2块GPU显卡,总共训练了1904分钟,也就是31.73个小时,模型就收敛了,模型训练是个漫长的过程,所以在训练的时候我们可以适当的放松一下,做点其他的事情:)。

图9.训练时间示意

04

模型推理

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目

模型训练好后,就可以测试一下模型的训练效果了,由于是多个GPU显卡,所以想把模型参数加载到多个GPU上,这样会使模型推理的更快,需要修改generate.py 文件,添加下面这样即可。

图10.修改generate.py 文件示意

然后我们把服务启起来,看看效果,根目录执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
python generate.py --base_model "decapoda-research/llama-7b-hf" \
--lora_weights './lora-alpaca-zh' \
--load_8bit

其中./lora-alpaca-zh目录下的文件,就是刚刚fine tuning模型训练的参数所在位置,启动服务的时候把它加载到内存(这个内存指的是GPU内存)里面。

如果成功,那么最终会输出相应的IP和Port信息,如下图所示:

图11.最终输出相应的IP和Port信息示意

可以用浏览器访问一下看看,如果能看到页面,就说明服务已经启动成功啦。

图12.使用浏览器访问示意

激动ing,费了九牛二虎之力,终于成功啦!!

因为目标是让模型说中文,所以测试一下对中文的理解,看看效果怎么样?

图13、14.中文理解效果示意

简单的问题,还是能给出答案的,但是针对稍微复杂一点的问题,虽然能够理解中文,但是并没有用中文进行回答,训练后的模型还是不太稳定啊。

在推理的时候也可以监控一下GPU的变化,可以看到GPU负载是比较高的,说明GPU在进行大量的计算来完成推理。

图15.GPU负载示意

05

总结

理解,首先 MCube 会依据模板缓存状态判断是否需要网络获取最新模板,当获取到模板后进行模板加载,加载阶段会将产物转换为视图树的结构,转换完成后将通过表达式引擎解析表达式并取得正确的值,通过事件解析引擎解析用户自定义事件并完成事件的绑定,完成解析赋值以及事件绑定后进行视图的渲染,最终将目标页面展示到屏幕。

1.效果问题:由于语料库不够丰富,所以目前用社区提供的语料库训练的效果并不是很好,对中文的理解力有限,如果想训练出能够执行特定领域的任务,则需要大量的语料支持,同时训练时间也会更长;

2. 推理时间问题:由于目前部署的GPU服务器有4块GPU,能够执行的有3块,基于3块GPU,在推理的时候还是比较吃力的,执行一次交互需要大概30s-1min,如果达到chatGPT那样实时返回,则需要大量的算力进行支持,可以反推,chatGPT后台肯定是有大集群算力支持的,所以如果想做成服务,成本投入是需要考量的一个问题;

3. 中文乱码问题:在input为中文的时候,有时候返回结果会乱码,怀疑跟切词有关,由于中文的编码问题,中文不像英文以空格区分,所以可能会有一定的乱码情况产生,调用open AI 的API也会有这种情况,后面看看社区是否有相应解决办法;

4. 模型选择问题:由于目前GPT社区比较活跃,模型的产生和变化也是日新月异,由于时间仓促,目前只调研了alpaca-lora模型的本地化部署,后面针对实际落地的应用应该也会有更好的更低成本的落地方案,需要持续跟进社区的发展,选择合适的开源方案。

打造SAAS化服务的会员徽章体系,可以作为标准的产品化方案统一对外输出。结合现有平台的通用能力,实现会员行为全路径覆盖,并能结合企业自身业务特点,规划相应的会员精准营销活动,提升会员忠诚度和业务的持续增长。

底层能力:维护用户基础数据、行为数据建模、用户画像分析、精准营销策略的制定

▪功能支撑:会员成长体系、等级计算策略、权益体系、营销底层能力支持

▪用户活跃:会员关怀、用户触达、活跃活动、业务线交叉获客、拉新促活

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-07-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 京东技术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
基于此,越来越多的企业将构建围绕于 LLM 的应用,而这些应用在当前以辅助人类设计为主。未来,我们将保持一种观点:LLM as Member,即 LLM 应该是我们的伙伴,而不再是一个辅助的工具。
Phodal
2023/08/11
6520
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
prompt(提示词)是我们和 LLM 互动最常用的方式,我们提供给 LLM 的 Prompt 作为模型的输入,并希望 LLM 反馈我们期待的结果。 虽然 LLM 的功能非常强大,但 LLM 对提示词(prompt)也非常敏感。这使得提示词工程成为一项需要培养的重要技能。
汀丶人工智能
2024/05/09
3.8K0
LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
AI最佳应用篇——什么时候需要微调你的大模型(LLM)?
在AI盛起的当下,各类AI应用不断地出现在人们的视野中,AI正在重塑着各行各业。相信现在各大公司都在进行着不同程度的AI布局,有AI大模型自研能力的公司毕竟是少数,对于大部分公司来说,在一款开源可商用的大模型基础上进行行业数据微调也正在成为一种不错的选择。
山行AI
2023/06/26
1.3K0
AI最佳应用篇——什么时候需要微调你的大模型(LLM)?
LLM 大模型学习必知必会系列(十):基于AgentFabric实现交互式智能体应用,Agent实战
**Modelscope **是一个交互式智能体应用基于ModelScope-Agent,用于方便地创建针对各种现实应用量身定制智能体,目前已经在生产级别落地。AgentFabric围绕可插拔和可定制的LLM构建,并增强了指令执行、额外知识检索和利用外部工具的能力。AgentFabric提供的交互界面包括:
汀丶人工智能
2024/05/26
6800
LLM 大模型学习必知必会系列(十):基于AgentFabric实现交互式智能体应用,Agent实战
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
Coze、Dify、FastGPT 和 MaxKB 都是旨在帮助用户构建基于大型语言模型 (LLM) 的智能应用的平台。它们各自拥有独特的功能和侧重点,以下是对它们的简要对比:
星哥玩云
2025/04/08
3520
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
分分钟手搓一个知识快应用!10年积淀,「云中问道」大模型重新定义知识管理
近日,Llama2正式发布了商用化的开源许可,效果可以媲美GPT-3.5,这将极大地推动大模型的开源商业生态的落地与发展。猎豹CEO傅盛第一时间表态,对大模型应用创业来说是极大利好。
新智元
2023/09/09
5550
分分钟手搓一个知识快应用!10年积淀,「云中问道」大模型重新定义知识管理
LLM安全专题
提示词 是指在训练或与大型语言模型(Claude,ChatGPT等)进行交互时,提供给模型的输入文本。通过给定特定的 提示词,可以引导模型生成特定主题或类型的文本。在自然语言处理(NLP)任务中,提示词充当了问题或输入的角色,而模型的输出是对这个问题的回答或完成的任务。
h3110_w0r1d
2025/02/06
1090
LLM安全专题
关于 LLM 和图数据库、知识图谱的那些事
本文整理自 NebulaGraph 布道师 wey 在「夜谈 LLM」主题分享上的演讲,主要包括以下内容:
NebulaGraph
2023/08/16
1.3K0
关于 LLM 和图数据库、知识图谱的那些事
关于语言模型私有化部署的讨论 | AIGC实践
上周在与TC同行关于AIGC实践的线上交流中,大家普遍比较关心的一个实践切入点是:语言模型的私有化部署——简单来说,就是在企业内部,部署一个属于自己的“ChatGPT”,对于本行业/专业知识,以及企业独有的产品和技术信息有充分的了解,并且提供用户接口,通过自然语言交流,解答内外部用户的问题。
睿齐
2024/02/26
4620
关于语言模型私有化部署的讨论 | AIGC实践
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
MaxKB = Max Knowledge Base,是一款基于 LLM 大语言模型的开源知识库问答系统,旨在成为企业的最强大脑。它能够帮助企业高效地管理知识,并提供智能问答功能。想象一下,你有一个虚拟助手,可以回答各种关于公司内部知识的问题,无论是政策、流程,还是技术文档,MaxKB 都能快速准确地给出答案:比如公司内网如何访问、如何提交视觉设计需求等等
汀丶人工智能
2024/08/05
11.3K0
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
[译文] LLM安全:3.网络LLM攻击及提示注入知识普及(PortSwigger)
这是作者新开的一个专栏,主要翻译国外知名安全厂商的技术报告和安全技术,了解它们的前沿技术,学习它们威胁溯源和恶意代码分析的方法,希望对您有所帮助。当然,由于作者英语有限,会借助LLM进行校验和润色,最终结合自己的安全经验完成,还请包涵!
Eastmount
2024/06/18
7270
[译文] LLM安全:3.网络LLM攻击及提示注入知识普及(PortSwigger)
AI大模型企业应用实战-“消灭”LLM幻觉的利器 - RAG介绍
大模型一定程度改变了我们生活工作的思考方式,越来越多的个人和企业在思考如何将大模型应用到更加实际的生产生活。
JavaEdge
2024/08/17
1820
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
SWIFT支持了开源模型,尤其是中小型模型(7B、14B等)对Agent场景的训练,并将loss-scale技术应用到agent训练中,使中小模型API Call能力更稳定,并支持使用单张商业级显卡进行Agent推理和部署,可以直接在生产场景中全链路闭环落地使用。
汀丶人工智能
2024/05/26
1K0
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
通向 AGI 之路:大型语言模型(LLM)技术精要
作者丨张俊林 本文经授权转载自知乎:https://zhuanlan.zhihu.com/p/597586623?utm_campaign=shareopn&utm_medium=social&utm
AI科技评论
2023/02/23
2.5K0
通向 AGI 之路:大型语言模型(LLM)技术精要
保姆级教程:使用dify源码本地部署LLM应用开发平台
现在大模型应用平台让人挑花了眼,想创建个人智能体的选择越来越多了,列举一些国内主流AI平台:
languageX
2024/06/16
29K0
保姆级教程:使用dify源码本地部署LLM应用开发平台
2024技术总结:LLM之RAG技术全栈进化解析、Agent应用案例精选、LLM大模型部署实战指南
嘿,大家好!作为一名技术宅,我在2024年与AI的大型语言模型(LLM)技术有了不少“亲密接触”,感觉就像是和一位日益聪明的老友并肩前行。
汀丶人工智能
2025/01/25
5860
2024技术总结:LLM之RAG技术全栈进化解析、Agent应用案例精选、LLM大模型部署实战指南
我独到的技术见解:LLM的演进与发展
2024年已经过去快两个月了,是时候对2023年get的新技术进行一次的沉淀和总结了。
languageX
2024/01/22
4.4K1
我独到的技术见解:LLM的演进与发展
LLM智能体工程落地思考
人工智能领域著名教授吴恩达在今年3月份红杉资本的人工智能峰会(AI Ascent)以及最近Snowflake峰会开发者日上都发表了关于AI Agent(人工智能体)的演讲。演讲中,其分享了对AI Agent未来发展潜力的展望。认为AI Agent能够让人工智能胜任更多种类的任务,甚至可能比下一代基础模型带来更大的AI进展。
colorknight
2024/08/01
1940
LLM智能体工程落地思考
LangChain:打造自己的LLM应用
导读 随着LLM的技术发展,其在业务上的应用越来越关键,通过LangChain大大降低了LLM应用开发的门槛。本文通过介绍LangChain是什么,LangChain的核心组件以及LangChain在实际场景下的使用方式,希望帮助大家能快速上手LLM应用的开发。
京东技术
2023/11/05
2.1K0
LangChain:打造自己的LLM应用
USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了
本文介绍对 LLM 提示词注入攻击(prompt injection)的通用防御框架。首篇论文已被安全顶会 USENIX Security 2025 接收,第一作者陈思哲是 UC Berkeley 计算机系博士生,Meta FAIR 访问研究员,研究兴趣为真实场景下的 AI 安全。他的导师是 David Wagner (UCB), 郭川 (Meta), Nicholas Carlini (Google)。
机器之心
2025/02/14
1530
USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了
推荐阅读
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
6520
LLM 大模型学习必知必会系列(二):提示词工程-Prompt Engineering 以及实战闯关
3.8K0
AI最佳应用篇——什么时候需要微调你的大模型(LLM)?
1.3K0
LLM 大模型学习必知必会系列(十):基于AgentFabric实现交互式智能体应用,Agent实战
6800
大型语言模型智能应用Coze、Dify、FastGPT、MaxKB 对比,选择合适自己的LLM工具
3520
分分钟手搓一个知识快应用!10年积淀,「云中问道」大模型重新定义知识管理
5550
LLM安全专题
1090
关于 LLM 和图数据库、知识图谱的那些事
1.3K0
关于语言模型私有化部署的讨论 | AIGC实践
4620
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
11.3K0
[译文] LLM安全:3.网络LLM攻击及提示注入知识普及(PortSwigger)
7270
AI大模型企业应用实战-“消灭”LLM幻觉的利器 - RAG介绍
1820
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
1K0
通向 AGI 之路:大型语言模型(LLM)技术精要
2.5K0
保姆级教程:使用dify源码本地部署LLM应用开发平台
29K0
2024技术总结:LLM之RAG技术全栈进化解析、Agent应用案例精选、LLM大模型部署实战指南
5860
我独到的技术见解:LLM的演进与发展
4.4K1
LLM智能体工程落地思考
1940
LangChain:打造自己的LLM应用
2.1K0
USENIX Sec'25 | LLM提示词注入攻击如何防?UC伯克利、Meta最新研究来了
1530
相关推荐
以 LLM 为核心 LLM@Core:程序员的大语言模型技术指南
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验