首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >训练损失和验证损失的含义

训练损失和验证损失的含义
EN

Stack Overflow用户
提问于 2017-10-24 09:24:43
回答 1查看 452关注 0票数 1

我使用了下面的MNIST示例:https://github.com/Lasagne/Lasagne/blob/master/docs/user/tutorial.rst

我读到了训练和验证方面的损失。我知道验证损失表示验证图像集在经过训练的网络中运行后的错误,但是这个数字的单位是什么?那么这个数字的确切含义是什么呢?

感谢您的帮助!

EN

回答 1

Stack Overflow用户

发布于 2018-02-12 04:16:17

您提到的示例中的损失函数是分类交叉熵损失。分类交叉熵损失计算每个类别的交叉熵损失,并返回总和。

交叉熵损失=-sigma(对所有类别c) Yc。log( Pc ),其中Yc是正确的类别标签,Pc是介于0和1之间的预测概率。正如您可以注意到的,如果对于一个类别,标签是1,并且预测的概率很小,则交叉熵损失将非常高,反之亦然。

cross entropy的单位是在给定两个概率分布p和q的情况下,如果所使用的编码方案是针对给定的两个概率分布p,而不是针对“真实”分布p而优化的“非自然”概率分布q,则识别从该集合中提取的事件所需的“比特”的数目。

在深度学习的上下文中,损失是一个定标器值,它被反向传播以在下一次迭代中减少其值。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/46906792

复制
相关文章
如何根据训练/验证损失曲线诊断我们的CNN
在关于训练神经网路的诸多技巧Tricks(完全总结版)这篇文章中,我们大概描述了大部分所有可能在训练神经网络中使用的技巧,这对如何提升神经网络的准确度是很有效的。
老潘
2023/10/19
2.6K0
如何根据训练/验证损失曲线诊断我们的CNN
机器学习算法之线性回归的损失和优化
思考一下,这样的话,会发生什么?真实结果与我们预测的结果之间是不是存在一定的误差呢?类似下图所示:
小闫同学啊
2020/02/26
9420
使用三重损失和孪生神经网络训练大型类目的嵌入表示
大型网站类目目录的数量很大,一般都无法进行手动标记,所以理解大型目录的内容对在线业务来说是一个重大挑战,并且这使得对于新产品发现就变得非常困难,但这个问题可以通过使用自监督神经网络模型来解决。
deephub
2022/11/11
2670
使用三重损失和孪生神经网络训练大型类目的嵌入表示
使用三重损失和孪生神经网络训练大型类目的嵌入表示
来源:Deephub Imba本文约4500字,建议阅读5分钟本文描述了一种通过在网站内部的用户搜索数据上使用自监督学习技术来训练高质量的可推广嵌入的方法。 大型网站类目目录的数量很大,一般都无法进行手动标记,所以理解大型目录的内容对在线业务来说是一个重大挑战,并且这使得对于新产品发现就变得非常困难,但这个问题可以通过使用自监督神经网络模型来解决。 在过去我们一直使用人工在系统中进行产品的标记,这样的确可以解决问题但是却耗费了很多人力的成本。如果能够创建一种机器学习为基础的通用的方式,在语义上自动的关联产品
数据派THU
2022/08/29
2740
使用三重损失和孪生神经网络训练大型类目的嵌入表示
Uniswap V3 释疑: 集中流动性, 无常损失和滑点
Uniswap 协议是一组原生的 ETH 的智能合约,它可以实现 ERC20 代币与 ERC20 代币的交换, 以及 ERC20 代币与 ETH 之间的的交换。
Tiny熊
2023/01/09
2K0
【论文分享】中科院自动化所多媒体计算与图形学团队NIPS 2017论文提出平均Top-K损失函数,专注于解决复杂样本
【导读】损失函数的设计一直是机器学习和模式识别中的核心问题。目前中国科学院自动化研究所和美国纽约州立大学奥尔巴尼分校合作提出了一种新的聚合损失函数,即平均 损失函数。 损失在优化的过程中专注于处理比较
WZEARW
2018/04/11
2.2K0
【论文分享】中科院自动化所多媒体计算与图形学团队NIPS 2017论文提出平均Top-K损失函数,专注于解决复杂样本
如何解决训练集损失下降而测试集损失上升?
来自ICML2020的一篇论文: Do We Need Zero Training Loss After Achieving Zero Training Error? 地址:https://arxiv
西西嘛呦
2020/08/26
4.6K0
如何解决训练集损失下降而测试集损失上升?
Gradient Harmonized Single-stage Detector
虽然两级检测器取得了巨大的成功,但是单级检测器仍然是一种更加简洁和高效的方法,在训练过程中存在着两种众所周知的不协调,即正、负样本之间以及简单例子和困难例子之间在数量上的巨大差异。在这项工作中,我们首先指出,这两个不和谐的本质影响可以用梯度的形式来概括。此外,我们提出了一种新的梯度协调机制(GHM)来对冲不协调。GHM背后的原理可以很容易地嵌入到交叉熵(CE)等分类损失函数和smooth l1 (SL1)等回归损失函数中。为此,我们设计了两种新的损失函数GHM-C和GHM-R来平衡梯度流,分别用于anchor分类和bounding box细化。MS COCO的消融研究表明,无需费力的超参数调整,GHM-C和GHM-R都可以为单级探测器带来实质性的改进。在没有任何附加条件的情况下,该模型在COCO test-dev set上实现了41.6 mAP,比目前最先进的Focal Loss(FL) + SL1方法高出0.8。
狼啸风云
2019/08/18
1.3K0
线上问题如何复盘?
昨天知识星球社群里有同学问了一个问题:线上问题如何复盘?从流程、分析和后续措施落地有哪些好的建议?
老_张
2023/03/01
1.1K0
线上问题如何复盘?
训练集、验证集、测试集以及交验验证的理解
在人工智能机器学习中,很容易将“验证集”与“测试集”,“交叉验证”混淆。
全栈程序员站长
2022/08/27
19.6K0
训练集、验证集、测试集以及交验验证的理解
图片验证码训练
1.项目git地址 https://github.com/kerlomz/captcha_trainer 2.安装模块 pip install -r requirements.txt 3.创建项目 python make_dataset.py img_test #这时候会报错 4.添加配置文件 cd projects/img_test/ 上传下面的配置文件 # - requirement.txt - GPU: tensorflow-gpu, CPU: tensorflow # - If you use
小小咸鱼YwY
2021/05/24
4.6K0
我们真的需要把训练集的损失降到零吗?
在训练模型的时候,我们需要将损失函数一直训练到0吗?显然不用。一般来说,我们是用训练集来训练模型,但希望的是验证机的损失越小越好,而正常来说训练集的损失降到一定值后,验证集的损失就会开始上升,因此没必要把训练集的损失降低到0
mathor
2021/05/20
2.2K0
模型训练时损失出现Nan,解决方案
解决方法:报错的原因是函数返回值得数量不一致,查看函数返回值数量和调用函数时接收返回值的数量是不是一致,修改一致即可
狼啸风云
2020/10/19
2.5K0
模型训练时损失出现Nan,解决方案
梯度消失和梯度爆炸
yhat=wLwL−1wL−2...w3w2w1xy^{hat}=w^{L}w^{L-1}w^{L-2}...w^{3}w^{2}w^{1}xyhat=wLwL−1wL−2...w3w2w1x
Steve Wang
2019/05/26
7710
训练深度学习神经网络的常用5个损失函数
神经网络在训练时的优化首先是对模型的当前状态进行误差估计,然后为了减少下一次评估的误差,需要使用一个能够表示错误函数对权重进行更新,这个函数被称为损失函数。
deephub
2022/11/11
9370
训练深度学习神经网络的常用5个损失函数
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
摘要:我们提出了一种全新的深度学习架构,其中的卷积运算利用了异构核。相比于标准的卷积运算,我们提出的 HetConv(基于异构核的卷积)能在减少计算量(FLOPs)和参数数量的同时维持表征的效率。为了展现我们所提出的卷积的有效性,我们在 VGG [30] 和 ResNet [8] 等标准卷积神经网络(CNN)上进行了广泛的实验并给出了实验结果。我们发现,使用我们提出的 HetConv 过滤器替换了这些架构中的标准卷积过滤器之后,我们能在 FLOPs 方面实现 3 到 8 倍的速度提升,同时还能维持(有时候能提升)准确度。我们将我们提出的卷积与分组/深度方面的卷积进行了比较,结果表明它能在显著提升准确度的同时将 FLOPs 降低更多。
机器之心
2019/04/09
8560
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
CVPR 2019 | 用异构卷积训练深度CNN:提升效率而不损准确度
对于深度卷积神经网络而言,准确度和计算成本往往难以得兼,研究界也一直在探索通过模型压缩或设计新型高效架构来解决这一问题。印度理工学院坎普尔分校的一篇 CVPR 论文则给出了一个新的思路——使用异构的卷积过滤器;实验表明这种方法能在保证准确度的同时显著降低计算成本。
小白学视觉
2019/05/30
7420
【干货】深度人脸识别的 Caffe 实现(附模型开源地址及论文下载)
【新智元导读】本论文对人脸识别和验证任务提出一种新的损失函数,即中心损失。中心损失和softmax损失联合监督学习的CNN,其对深层学习特征的人脸识别能力大大提高。对几个大型人脸基准的实验已经令人信服地证明了该方法的有效性。 相关论文 题目:A Discriminative Feature Learning Approachfor Deep Face Recognition 作者:Yandong Wen, Kaipeng Zhang, Zhifeng Li*, YuQiao 新智元微信公众号回复1015,
新智元
2018/03/26
2.3K0
【干货】深度人脸识别的 Caffe 实现(附模型开源地址及论文下载)
9 | 过拟合欠拟合、训练集验证集、关闭自动求导
我们在日常的工作中,训练好的模型往往是要去评价它的准确率的,通过此来判断我们的模型是否符合我的要求。 几个可能的方案是,对我们训练使用的数据再输入到训练好的模型中,查看输出的结果是否跟预期的结果是一致的,当然这个在我们的线性模型上跟训练过程没有区别。另外一个比较靠谱的方案是把一部分在训练的时候没有用过的数据放进模型里,看预测结果是否和预期结果一致。
机器学习之禅
2022/07/11
5530
9 | 过拟合欠拟合、训练集验证集、关闭自动求导
点击加载更多

相似问题

持续的训练损失和验证损失

113

验证损失和训练损失之间的差距

130

深度学习中的训练损失和验证损失

43

验证损失和训练损失曲线,可以接受吗?

117

验证损失和验证准确率都高于训练损失和acc和波动。

166
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文