前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LLM 系列(二):基础概念篇

LLM 系列(二):基础概念篇

作者头像
磊叔的技术博客
发布于 2025-06-11 05:40:13
发布于 2025-06-11 05:40:13
1.1K0
举报

写在前面: 大语言模型 (LLMs) 正以前所未有的方式重塑我们的世界。无论您是技术爱好者、产品经理,还是希望把握时代脉搏的探索者,理解其背后的核心原理都至关重要。这份摘要旨在为您提供一张清晰、易懂的 LLM 知识地图。

第一篇文章主要介绍了大模型的发展历程模型发展历程:技术演进与趋势洞察;这是大模型系列的第二篇文章,主要介绍一些和大模型相关的概念。

🏛️ 一、核心数学与算法

揭示了驱动所有神经网络(包括 LLM)学习的底层循环逻辑。

神经网络的学习循环

想象一个学生在不断学习:做题 → 对答案 → 总结错误 → 改进方法。神经网络的学习与此类似。

核心循环: 预测 → 评估 → 修正

  1. 1. 🎯 预测 (Prediction):模型根据现有知识(模型参数)对问题进行猜测。例如,预测下一个词是什么。这本质上是一个 分类 (Classification) 任务。这个过程叫作 前向传播 (Forward Propagation)
  2. 2. 📝 评估 (Evaluation): 使用 损失函数 (Loss Function) 这把“尺子”来衡量模型的预测结果与正确答案之间的差距(即“损失”或“误差”)。
  3. 3. 🧠 修正 (Correction):通过 反向传播 (Backpropagation)模型计算出每个参数对造成误差的“责任”有多大,这个“责任”就是 梯度 (Gradient)
Backpropagation
Backpropagation

Backpropagation

  • • 随后,模型使用 梯度下降 (Gradient Descent) 算法,朝着减小误差的方向,聪明地微调自己的参数。

Gradient
Gradient

Gradient

关键组件

  • • 激活函数 (Activation Function):为神经网络注入“灵魂”——非线性,让它能学习超越简单线性关系的复杂模式。
  • • 损失函数 (Loss Function):为模型的优化提供一个清晰的“靶心”,告诉它努力的方向。

🧩 二、深度学习与 LLM 特有机制

将视野从通用神经网络拓宽到 LLM 所特有的概念和工作方式。

学习范式

层级关系: AI > 机器学习 (ML) > 深度学习 (DL)

layer
layer

layer

  • • 迁移学习 (Transfer Learning):LLM 成功的“秘密武器”。先在海量通用知识(如整个互联网的文本)上进行 预训练 (Pre-training),成为一个“通才”,然后再针对特定任务进行 微调 (Fine-tuning),成为“专才”。
  • • 强化学习 (Reinforcement Learning, RL):通过“奖惩”机制进行学习。在 LLM 中,大名鼎鼎的 RLHF 就是让模型通过人类的反馈(喜欢/不喜欢)来学习如何说出更符合人类偏好的话。

核心术语

  • • 参数 vs. 超参数参数 (Parameters) 是模型学习到的知识(如权重);超参数 (Hyperparameters) 是我们为学习过程设定的规则(如学习率)。
  • • 训练节奏:
    • • Epoch:把整个题库刷一遍。
    • • Batch:一次做一小批题。
    • • Step/Iteration:做完一小批题,并订正一次。
  • • 文本处理流程:
    • • Tokenizer (分词器):将一句话切分成模型能理解的基本单位 Token (词元)
    • • Embedding (嵌入):将每个离散的 Token 转换成一个充满语义信息的“数字坐标”(向量),让模型理解词与词之间的关系。
Embedding
Embedding

Embedding

  • • 上下文学习 (In-Context Learning):LLM 惊人的“举一反三”能力。
    • • Zero-shot:不给例子,直接做题。
    • • One-shot:给一个例子,照着学。
    • • Few-shot:给几个例子,总结规律。

🛠️ 三、大模型训练与推理优化

聚焦于如何让一个“通才”模型变得更专业、更高效。

微调 (Fine-tuning) 的艺术

核心目标: 用更少的资源,让模型更好地适应特定任务。

  • • 监督微调 (SFT):最直接的方式,用“指令-回答”格式的数据集,手把手教模型如何遵循指令。
  • • RLHF:如前所述,通过训练一个“品味”模型(奖励模型)来学习人类的喜好,再用它来指导 LLM 的优化。
  • • 参数高效微调 (PEFT):为了省钱省力,只微调模型的一小部分参数。
    • • LoRA / Q-LoRA:给模型装上可插拔的“微调插件”,只训练插件。Q-LoRA 更进一步,先把模型压缩一下再装插件,极大地降低了硬件门槛。
    • • Prompt/Prefix-tuning:不改动模型本身,而是学习一段添加到输入中的、可训练的“魔法咒语”,引导模型产生期望的输出。

核心引擎:Attention 机制

一言以蔽之: 模型在处理一句话时,能动态地抓住每个词的重点。

自注意力机制 (Self-Attention) 是 Transformer 架构的心脏。它通过复杂的 查询 (Q)键 (K)值 (V) 交互,计算出句子中任意两个词之间的关联度,从而理解长距离的依赖关系和复杂的语法结构。

Self-Attention
Self-Attention

Self-Attention

推理优化 (Inference Optimization)

  • • 预填充 (Prefill):快速“阅读”并理解你的输入提示,这个阶段计算量大。
  • • 解码 (Decode):逐字逐句地生成回答,这个阶段更考验内存的读写速度。
  • • KV 缓存 (KV Cache):一个聪明的“备忘录”,记住已经计算过的内容,避免重复劳动,是模型能够流畅回答的关键。

🚀 四、模型压缩与部署

探讨如何让庞大的模型“瘦身成功”,并真正走进我们的手机和电脑。

模型压缩技术

  • • 模型量化 (Quantization):降低参数的精度,好比把一本精装书变成平装本,内容没大变,但体积和重量都减小了。
  • • 模型蒸馏 (Distillation):让一个强大的“教师模型”把知识精华传授给一个轻巧的“学生模型”。
Distillation
Distillation

Distillation

  • • 模型剪枝 (Pruning):像修剪花草一样,剪掉模型中不重要、冗余的“枝叶”(参数)。
  • • 模型二值化 (Binarization):极致压缩,把参数简化到只有+1和-1,大幅提升计算速度。

部署策略

  • • 端侧部署 (Edge Deployment):让模型直接在你的手机或电脑上运行。优点是响应快、保护隐私。挑战是设备性能有限。
  • • 云-边-端协同 (Cloud-Edge-Device):一种混合策略。重活累活(如训练)在云端干,需要快速响应的轻活在靠近用户的“边缘”或设备端完成,实现性能与效率的最佳平衡。

总结

LLM 的未来将走向效率与能力的平衡、普及多模态能力、增强智能体 (Agent) 功能,并持续关注安全与对齐。对我们学习者而言,最好的策略就是:夯实基础、动手实践、保持好奇,并以负责任的态度,迎接这个由 AI 驱动的全新时代。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 磊叔的技术博客 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
OpenAI是什么
2015年由马斯克、美国创业孵化器Y Combinator总裁阿尔特曼、全球在线支付平台PayPal联合创始人彼得·蒂尔等硅谷科技大亨创立。 2016年6月21日,OpenAI宣布了其主要目标,包括制造“通用”机器人和使用自然语言的聊天机器人。OpenAI研发主管伊利娅·苏特斯科娃(Ilya Sutskever)、OpenAI CTO格雷格·布劳克曼(Greg Brockman)硅谷知名创业加速器Y Combinator总裁萨姆·阿尔特曼(Sam Altman)以及连续创业家埃隆·马斯克(Elon Musk)等人联合发表博文称:“我们正致力于利用物理机器人(现有而非OpenAI开发)完成基本家务。” 2019年7月22日,微软投资OpenAI 10亿美元,双方将携手合作替Azure云端平台服务开发人工智能技术。 2020年6月11日,OpenAI宣布了GPT-3语言模型,微软于2020年9月22日取得独家授权。 2022年6月,量子计算专家、ACM计算奖得主Scott Aaronson宣布,将加盟公司[2]。 2023年1月30日,微软宣布已与OpenAI扩大合作伙伴关系,声明称,作为两家公司合作伙伴关系的第三阶段,微软将向OpenAI进行一项为期多年、价值数十亿美元的投资,以加速其在人工智能(AI)领域的技术突破。
zhangjiqun
2024/12/13
2670
OpenAI是什么
ChatGPT爆火,每个AI机器人都学过K8s
近日,人工智能研究公司 OpenAI 宣布正式推出 ChatGPT,这是一种基于对话的人工智能聊天机器人模型,它能够理解自然语言并以自然语言的方式做出回应。
灵雀云
2023/02/27
5270
ChatGPT爆火,每个AI机器人都学过K8s
290亿美元!ChatGPT爆火,OpenAI七周年估值翻番
---- 新智元报道   编辑:David 【新智元导读】ChatGPT持续爆火,OpenAI也成为资本市场上最炙手可热的香饽饽,最新估值有望达到290亿美元,比2021年上次融资时翻了一番。 如果问哪家公司的AI实力最强,很多人都有自己的答案。但如果问最近一个多月最火的AI工具是什么,答案想必没什么争议。 ChatGPT。 随着ChatGPT的持续爆红,它背后的机构OpenAI看起来也要一夜暴富了。 据多家外媒报道,OpenAI正在与投资人磋商,打算出售现有价值3亿美元的股票。如果成功,这家公司估
新智元
2023/02/24
4690
290亿美元!ChatGPT爆火,OpenAI七周年估值翻番
不花钱,让「情圣」ChatGPT教你怎么追马斯克!
最近,OpenAI发布了史上最强聊天机器人ChatGPT,这个诞生于GPT-3基础上的AI很快走红网络。
新智元
2023/01/09
5500
不花钱,让「情圣」ChatGPT教你怎么追马斯克!
带你了解全网爆火的 ChatGPT
本文作者:hangye,腾讯前端工程师,MoonWebTeam团队成员 1.  前言 12月1日,旧金山的人工智能实验室 OpenAI 发布了一个名为 ChatGPT 的自然语言生成式模型,迅速风靡世界,短短5天内用户数量已经突破100万。许多大佬都来尝试,例如马斯克都说到,我们已经离强大到危险的人工智能不远了。 马斯克还向他请教了如何更好的设计推特,得到的结论还挺有意思: 优化用户的聊天界面,由一维转向二维,以便用更直观的方式查找聊天内容。 并且,它还采用了注重道德水平的训练方式,按照预先设计的道德
欧文
2023/02/28
1.3K0
带你了解全网爆火的 ChatGPT
ChatGPT版必应疑似「发疯」,微软紧急限制回答数目,植入广告赚钱提上日程
机器之心报道 编辑:泽南、张倩 未来的 AI 搜索,可不是竞价排名这么简单。 微软的 ChatGPT 版必应搜索上线之后,很多人都说它能代替谷歌搜索,成为下个最流行的科技产品。十天的公开测试过后,情况如何了? 随着排上队获得使用权的人越来越多,各种稀奇古怪的 bug 开始层出不穷。最近的风向是,「我这个必应好像不太对劲?」 图片来自知乎用户@ZIHAN CHEN。原贴链接:https://www.zhihu.com/question/583588366 从应用的体验上来看,新必应搜索并不是 ChatG
机器之心
2023/02/23
8180
ChatGPT版必应疑似「发疯」,微软紧急限制回答数目,植入广告赚钱提上日程
一文读懂 OpenAI
OpenAI 是一家美国人工智能(AI)研究实验室,由非营利性 OpenAI Incorporated(OpenAI Inc.)及其营利性子公司 OpenAI Limited Partnership(OpenAI LP)组成。OpenAI 进行 AI 研究的目的是促进和开发友好的 AI。OpenAI 系统运行在世界上第五强大的超级计算机上。该组织于 2015 年由 Sam Altman、Reid Hoffman 在旧金山成立,杰西卡·利文斯顿(Jessica Livingston)、埃隆·马斯克(Elon Musk)、伊利亚·萨茨克维尔(Ilya Sutskever)、彼得·泰尔(Peter Thiel)等人共同认捐了 10 亿美元。马斯克于 2018 年辞去董事会职务,但仍是捐助者。微软在 2019 年向 OpenAI LP 提供了 10 亿美元的投资,并于 2023 年 1 月向其提供了第二笔多年期投资,据报道为 100 亿美元。
李维亮
2023/05/16
1.2K0
ChatGPT火了,OpenAI却飘了?
大数据文摘出品 作者:Caleb ChatGPT现在有多火相信大家已经是有目共睹。 根据ARK风险投资公司首席未来学家Brett Winton统计的数据,ChatGPT日活量突破千万,只用了不到两个月的时间。作为对照,上一个现象级软件Instagram达到这一成就花了355天。 1月中旬,《纽约时报》报道称,北密歇根大学的哲学教授Antony Aumann在世界宗教课程评分时,惊喜地读到了一篇“全班最好的论文”。学生用简洁的段落、恰当的举例和严谨的论据,探讨了罩袍禁令的道德意义。然而,在Aumann的追
大数据文摘
2023/04/10
4210
ChatGPT火了,OpenAI却飘了?
科普文:国内ChatGPT怎么用,ChatGPT国内怎么用,关于ChatGPT你需要了解的内容应该都在这
在国内用了很长一段时间的ChatGPT,每次跟小白,哪怕是用ChatGPT的人交流的时候,都感觉解释不清,正好今天周末,给大家整理一篇关于ChatGPT的科普文,想要了解或使用ChatGPT的人,一定要看~~~,结尾有彩蛋
用户10510183
2023/04/24
1.5K0
火爆热点ChatGPT: 为什么连马斯克也深陷其中?
本公众号分享的软件服务以及语言均源于网络,只做针对这些软件服务或者语言的使用实践进行分享和整理。本公众号不对任何人进行推荐,在使用这些软件或编程代码时有可能会引发一些问题,甚至导致数据丢失,请您自行成承担相应的后果!本公众号概不负责! 若您觉得公众号发布的内容若侵犯到您的权益,请联系及时管理员沟通!
公众号: 云原生生态圈
2023/01/09
9690
火爆热点ChatGPT:  为什么连马斯克也深陷其中?
马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”
作者 | Tina 埃隆·马斯克 (Elon Musk) 否认了他最著名的作品之一。 特斯拉、SpaceX 和 Twitter 的首席执行官以热爱工作每天睡觉不超过 6 小时而闻名,他脑子里想着几件事,其中一件事关 OpenAI 的发展,太平洋时间凌晨 1 点 36 分,他发表推文指责 OpenAI 违背初心:被微软控制,只顾赚钱。 作为联合创始人之一,马斯克对 OpenAI 的现状非常不满:“OpenAI 最初是作为一家开源(这就是为什么我把它命名为‘Open’AI)的非营利性公司而创建的,为了抗衡
深度学习与Python
2023/03/29
5800
马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”
8千字!ChatGPT 发展历程、原理、技术架构详解,人工智能产业的未来
去年12月1日,OpenAI推出人工智能聊天原型ChatGPT,今年2月它再次赚足眼球,为AI界引发了类似AIGC让艺术家失业的大讨论。
程序员晚枫
2023/02/27
7K0
8千字!ChatGPT 发展历程、原理、技术架构详解,人工智能产业的未来
什么是 ChatGPT,为什么它很重要?以下是你需要了解的内容。
Chat Generative Pre-trained Transformer ,ChatGPT 最后三个字母代表生成式预训练转换器 (GPT),这是由 OpenAI 创建的一系列大型语言模型,它使用深度学习生成类似人类的对话文本。ChatGPT 是一款由生成式 AI 驱动的自然语言处理聊天机器人,可以让您进行类似人类的对话以完成各种任务。例如,可以回答问题并帮助您完成撰写电子邮件、论文和代码等任务。
ICT系统集成阿祥
2024/12/03
3270
什么是 ChatGPT,为什么它很重要?以下是你需要了解的内容。
OpenAI CEO:巨型AI模型时代已结束,马斯克TruthGPT曝光
机器之心报道 编辑:陈萍、杜伟 至于原因,一方面是大模型需要跳出扩展参数规模的范畴,另一方面受限于高昂的训练成本。 近几个月来,OpenAI ChatGPT 的强大生成式对话能力引发了人们对 AI 的新兴趣和投资。随着国内外掀起类 ChatGPT 研发热潮,对话式 AI 及背后的大模型被更多人看好。 但上周在 MIT 的视频发言中,OpenAI CEO Sam Altman 发表了另一番言论。他警告称,诞生 ChatGPT 的研究策略已经结束。至于未来会在哪些方面出现进展尚不清楚。 过去几年,OpenAI
机器之心
2023/04/21
3710
OpenAI CEO:巨型AI模型时代已结束,马斯克TruthGPT曝光
从GPT-1到GPT-4,再到未来的GPT-5,一文带你了解GPT的前世今生和未来!
ChatGPT爆火的余热还没退去,GPT-4又横空出世,各大媒体都争相报道,朋友圈也在不断刷屏,打工人更是感叹饭碗要被AI夺走了!作为一名理性吃瓜群众我们还是得去了解一下GPT的过去、现在和未来,正所谓知己知彼,百战不殆,只有充分了解"对手",我们才能驾驭AI为我所用!话不多说,立马开始!
itvv
2023/03/23
9.2K0
文字生万物,AI极简史
大数据文摘授权转载自澎湃美数课 编辑:舒怡尔  设计:张泽红 哈罗德·科恩花了 42 年把 AARON 铸成“另一半自己”。它是一段被画家造出来的计算机程序,或许也可以叫做 AI 系统。先是花了 20 年学会黑白简笔画,1995 年,它第一次表演上色,以一个庞大的机器模样(长 2.4 米,宽 1.8 米)。它先用机械臂上的钢笔勾勒线条,然后在调色板上混合颜料,创造出自定义的颜色,再使用笔刷进行涂抹,就好像在机床上织布。 2016 年,科恩去世,AARON 也停止了呼吸。 他们都没见到《太空歌剧院》的诞生,这
大数据文摘
2023/04/10
2470
文字生万物,AI极简史
在扯淡方面,ChatGPT到底强在哪儿?
近期,人工智能软件ChatGPT火爆全球。这款由美国顶尖AI实验室OpenAI开发并于2022年11月30日首次上线的软件,仅不到一周用户注册数就突破100万。
华尔街科技眼
2023/02/08
6050
在扯淡方面,ChatGPT到底强在哪儿?
【愚公系列】《AI智能化办公:ChatGPT使用方法与技巧从入门到精通》 004-ChatGPT是什么(ChatGPT的特点与发展)
ChatGPT是一种智能化程度较高且具有更强交互性的对话模型,相较于传统的搜索引擎,它能够理解用户以自然语言形式输入的问题,并根据用户需求提供相应的答案和建议。ChatGPT经历了多次版本迭代,从GPT-1到GPT-4,每一次升级都为用户带来了更强大的功能和更好的体验。这一发展标志着人工智能技术的不断进步和应用场景的不断扩展。未来,随着人工智能技术的持续发展,ChatGPT将继续升级和完善,成为更加智能和人性化的交互工具,为人们的生活和工作带来更多的便利和创新。
愚公搬代码
2024/10/01
1850
爆火出圈的chatGPT,到底是什么?
2022年 11 月 30 日,OpenAI 实验室创始人兼 CEO Sam Altman 宣布发布聊天机器人模型:ChatGPT。ChatGPT 可以模仿人类的说话风格回答问题。很快,ChatGPT 火爆社交圈,Github 上出现了很多和 ChatGPT 相关的工具,一些工具在 Github 趋势榜单中霸榜多日。
星哥玩云
2023/05/25
4730
爆火出圈的chatGPT,到底是什么?
小扎、马斯克宣战ChatGPT!Meta和推特组建顶级AI团队,硅谷硝烟四起
---- 新智元报道   编辑:编辑部 【新智元导读】ChatGPT大厂混战,怎能少得了Meta和推特?近日,小扎和马斯克也官宣下场,要做自己的ChatGPT了。 ChatGPT的爆火,直接改变了整个硅谷大厂的格局。 微软的步步出招,倒逼谷歌走出固步自封的境地,紧急发布AI聊天机器人Bard。 而硅谷大厂中的另外几方势力,自然也不会袖手旁观。 最近,马斯克、小扎也纷纷下场,正式对ChatGPT宣战! 据The Information报道,马斯克最近几周与一直在于AI研究人员接洽,希望组建一个新的研究实
新智元
2023/02/28
5340
小扎、马斯克宣战ChatGPT!Meta和推特组建顶级AI团队,硅谷硝烟四起
推荐阅读
相关推荐
OpenAI是什么
更多 >
目录
  • 第一篇文章主要介绍了大模型的发展历程大模型发展历程:技术演进与趋势洞察;这是大模型系列的第二篇文章,主要介绍一些和大模型相关的概念。
  • 🏛️ 一、核心数学与算法
    • 神经网络的学习循环
    • 关键组件
  • 🧩 二、深度学习与 LLM 特有机制
    • 学习范式
    • 核心术语
  • 🛠️ 三、大模型训练与推理优化
    • 微调 (Fine-tuning) 的艺术
    • 核心引擎:Attention 机制
    • 推理优化 (Inference Optimization)
  • 🚀 四、模型压缩与部署
    • 模型压缩技术
    • 部署策略
  • 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档