首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >LLM最后怎么输出值 解码语言模型:从权重到概率的奥秘

LLM最后怎么输出值 解码语言模型:从权重到概率的奥秘

作者头像
zhangjiqun
发布2025-05-20 09:51:44
发布2025-05-20 09:51:44
3680
举报
文章被收录于专栏:计算机工具计算机工具
  1. LM Head Weights(语言模型头部权重):左侧的“LM Head Weights”表示语言模型头部的权重矩阵,它是模型参数的一部分。权重矩阵与输入数据进行运算。
  2. Logits(未归一化对数概率):经过与LM Head Weights运算后得到Logits。Logits是模型输出的未经过归一化处理的数值,代表各个类别(token )的得分。
  3. SM Agg(Softmax Aggregation) :对Logits进行特定的聚合处理,可能是为了在特定维度上进行汇总或进一步处理。
  4. Logits Softmax:将经过SM Agg处理后的Logits通过Softmax函数进行处理。Softmax函数将未归一化的Logits转换为概率分布,使得所有可能输出的概率之和为1。
  5. 输出:最终输出各个类别(这里用A、B、C表示不同token )对应的概率值,比如图中展示了多个类别,模型根据概率来预测最可能的输出。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2025-05-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档