腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Keras的非范畴损失
、
我想知道我是否误解了Keras文档,但就我所读到的内容而言,没有交叉
熵
实现。有分类和sparse_categorical (它们似乎完全相同,但只期望有不同的标签格式)。我的想法是将每个目标索引封装成二进制交叉
熵
,但这感觉不对,我认为有一个更好的解决方案。你能帮我找到合适的CE损失吗?
浏览 0
提问于2020-03-17
得票数 1
回答已采纳
1
回答
3个计算相对
熵
的函数。有什么关系呢?
、
、
、
python
中的Scipy提供了以下函数,这些函数似乎计算相同的信息论度量,Kullback散度,也称为相对
熵
: 可以切换到计算
KL
-散度的scipy.stats.entropy,,如果是qk=Nonescipy.special.rel_entrscipy.special.
kl
_div
浏览 8
提问于2020-08-12
得票数 2
回答已采纳
2
回答
关于
KL
-散度和特征选择的直觉
、
我在理解
KL
-散度以及如何使用它进行特征选择时有点困难。因此,假设我有一组观察值(例如,0和1),并为每个观察值生成2个特征。我现在的问题是:为什么特性是“最好的”?我知道我可以使用
KL
-散度(由$$D_{
KL
} =log(I)\ \sum_i \frac{ p(i) }{q(I)}$$给出),但是什么是P,什么是Q?我的直觉告诉我,P是特征1,Q是真正的分布(所以是0和1的集合),但我的理解也是,一个好的特征可以最大化
KL
散度。但是如果Q是类的实际分布,那么你想最小化它,对吗?
浏览 4
提问于2016-06-04
得票数 0
2
回答
可以指定两个分布之间的相关性吗?
、
、
、
我所缺少的是如何测量随机性/相互依存性的程度(也许这与
熵
有关?)在两者之间,高分的学生在考试2中的分数也很高,如果R中有一个包,我可以用它来指定两个变量之间的任意
熵
度。
浏览 5
提问于2020-11-17
得票数 0
回答已采纳
1
回答
如何找到两个数据之间的
熵
或
KL
差异?
、
、
、
、
我要计算这两个数据之间的
熵
和
KL
-散度。但我知道,
熵
和
kl
-散度是在概率分布之间计算的,但数据只是数值(而不是概率分布)。那么,我如何计算我的数据呢?我应该把我的数据转换成概率分布吗?
浏览 17
提问于2022-11-08
得票数 0
2
回答
比较ML模型的
KL
-散度
、
、
我想过的简单的、可能不正确的方法是:决定一个参考密度\mathcal{D}(例如,\mathcal{N}(0,1)),使用
KL
-散度计算A和B密度与参考密度之间的“距离”,并选择距离较小的模型。
浏览 0
提问于2021-07-17
得票数 2
回答已采纳
2
回答
Python
中的成对Kullback Leibler (或Jensen-Shannon)散度距离矩阵
、
、
、
我有两个矩阵X和Y(在大多数情况下它们是相似的),现在我想计算所有行之间的成对
KL
散度,并将它们输出到一个矩阵中。例如:然后,该函数应采用
kl
_divergence(X, X)并计算两个X矩阵的每一对行的成对
Kl
散度距离。输出将是一个2x2矩阵。这在
Python
中已经有实现了吗?如果不是,这应该是非常简单的计算。我想要一些矩阵实现,因为我有大量的数据,需要保持尽可能低的运行时间。或者,Jensen-Shannon
熵
也很好。
浏览 1
提问于2012-05-15
得票数 3
回答已采纳
1
回答
利用交叉
熵
建立决策树分类器
、
熵
和交叉
熵
是否与基本定义相同?决策树分解取
熵
或基尼指数,可以用交叉
熵
来分割决策树吗?或者,在运行决策树算法之后,我应该使用它作为评估指标吗?那么我们如何使用
KL
发散度呢?以下是我对多类决策树的关注。
浏览 0
提问于2020-01-16
得票数 2
5
回答
PyTorch中两种概率分布的
KL
散度
、
我应该如何在PyTorch中找到它们之间的
KL
-分歧?正则交叉
熵
只接受整数标签。
浏览 0
提问于2018-04-17
得票数 17
回答已采纳
1
回答
Kullback Liebler发散已经在TensorFlow中实现了吗?
、
、
我使用Softmax交叉
熵
作为我的损失函数:cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(pred, y)) 现在,我想我应该使用
KL
散度损失函数。但是,我没有在tensorflow中找到它,有没有人可以帮助我使用
KL
散度损失函数而不是Softmax损失?
浏览 6
提问于2016-04-12
得票数 1
2
回答
矩阵间
KL
-散度的计算
、
通过将
熵
算法应用于两个大小为200的扁平向量,可以确定
kl
-散度吗?
浏览 0
提问于2016-04-18
得票数 6
1
回答
如何在TensorFlow中实现Kullback损失?
、
、
我尝试了这个函数tf.contrib.distributions.
kl
(dist_a, dist_b, allow_nan=False, name=None),但是失败了。我尝试手动实现它: return p* tf.log(p/q)+(1-p)*tf.log((1-p)/(1-q)) 这是正确的吗?
浏览 3
提问于2017-04-08
得票数 6
回答已采纳
1
回答
VAE中的
KL
散度
、
如果我正确理解,
KL
-散度是两个分布的相对
熵
。要计算两个分布的
KL
散度,需要两个随机变量向量。 我不明白的是,如何计算VAE (潜空间向量和N(0,1) )中的
KL
散度,正如许多教程中所述。我的问题是,如何正确地将潜在空间向量创建为随机变量向量,这样最终就可以计算出
KL
散度。
浏览 0
提问于2018-12-10
得票数 0
回答已采纳
1
回答
交叉
熵
与
熵
(决策树)
、
、
我读过的几篇论文/书说,在寻找分类树中的最佳分裂时使用交叉
熵
,例如统计学习的元素(Hastie,Tibshirani,Friedman),甚至在分类树的上下文中都没有提到
熵
。然而,其他来源提到
熵
,而不是交叉
熵
,作为寻找最佳分裂的衡量标准。这两种措施都可用吗?只使用交叉
熵
吗?就我的理解而言,这两个概念之间有很大的不同。
浏览 0
提问于2019-03-12
得票数 4
回答已采纳
1
回答
不是二元交叉
熵
中的二进制地面真理标签吗?
、
、
、
、
用二进制地面真值代替二元交叉
熵
有意义吗?有什么正式的证据吗? 看起来像是在实践中使用的:例如在中,即mnist图像不是二进制图像,而是灰色图像。
浏览 28
提问于2020-05-11
得票数 3
回答已采纳
1
回答
什么是分布不对称的度量?
、
、
、
我试图理解
KL
-发散,D_{
KL
} \langle P(X) \Vert P(Y) \rangle,,并浏览维基百科的文章。
浏览 0
提问于2020-11-07
得票数 1
回答已采纳
1
回答
变分自编码器
KL
散度损失爆发及模型返回nan
、
、
、
模型的输出为sigmoid,损失函数为二进制交叉
熵
:rec_loss = nn.functional.binary_cross_entropy(x_hat.view(-1, 128 ** 2), x.view(-1, 128 ** 2),reduction='sum')
KL
_loss = -0.5 * torch.sum(1 +logvar - mu.pow(2) - logvar.exp()) 在训练的某一时刻,
KL</e
浏览 4
提问于2021-06-08
得票数 1
3
回答
为什么scipy.stats.entropy(a,b)返回inf,而scipy.stats.entropy(b,a)不返回inf?
、
In [15]: a = np.array([0.5, 0.5, 0, 0, 0]) Out[17]: inf Out[18]: 0.6931471805599453
浏览 2
提问于2019-07-29
得票数 2
回答已采纳
2
回答
交叉
熵
总是大于
熵
吗?
、
、
我试图了解如何在分类任务中使用交叉
熵
来定义损失。 我对维基百科中关于交叉
熵
总是大于
熵
的说法感到很困惑。我给出了p(实分布)和Q(假设分布)的简单分布,并计算了交叉
熵
和
熵
。发现这种情况下的交叉
熵
小于
熵
。
浏览 0
提问于2018-10-18
得票数 3
1
回答
* TypeError:预期的float32传递给op 'Equal‘的参数'y’,得到'str‘类型的'auto’
、
、
、
、
我正在处理一个keras.io示例,其中构建了一个变分的自动编码器,在这里可以找到: ,,我试图用MeanSquaredError-损失替换二进制_交叉
熵
损失,但是我得到了一个TypeError。此外,我不明白为什么使用二进制交叉
熵
损失,因为我把这个损失理解为分类损失,但在这里,我比较原始数据的值和它的重构,这是一种回归,而不是分类。那么,为什么仍然适合使用crossentropy-loss?When -我运行的代码与交叉
熵
损失,并看看我的损失,那么
KL
损失和重建损失不总结为全损。我的意思是,总损失总是不等于
KL<
浏览 3
提问于2021-06-01
得票数 0
点击加载更多
相关
资讯
KL散度和交叉熵的对比介绍
从香农熵到手推KL散度:一文带你纵览机器学习中的信息论
详解机器学习中的熵、条件熵、相对熵、交叉熵
一文读懂最大熵原理及Python实现
机器学习数学补脑汁(八)-信息论
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券