腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4187)
视频
沙龙
1
回答
如何
找到
来自
两个
2D
分布
的
样本
的
KL
散
度
?
、
、
假设我有
两个
包含1000个
样本
的
2D
集合,如下所示:我想要一个度量
分布
之间差值
的
指标,并认为
KL
散
度
将是合适
的
。
如何
使用4 1维数组来做到这一点?np.random.normal(4, 5, 1000) plt.scatter(dist2_x, dist2_y)对于我
的
实际数据,我只有
浏览 27
提问于2020-05-10
得票数 0
1
回答
两种
分布
的
测度差
、
我有一个
样本
程序
的
距离向量。我试图量化它们有多相似。我使用了
样本
组之间
的
欧氏距离(每个值都属于一个桶,我们逐桶比较),它工作得很好。但是,有太多
的
比较,需要做大量
的
样本
。我想知道是否有一种有效
的
方法来建立一个比较
样本
的
索引。
样本
看起来像--Sample:2 = {25 1 16 2 6
浏览 0
提问于2018-09-24
得票数 3
2
回答
两个
torch.distribution.Distribution对象
的
KL
散
度
、
我试图确定
如何
计算
两个
torch.distribution.Distribution对象
的
KL
散
度
。到目前为止,我还没有
找到
一个函数来完成这个任务。以下是我尝试过
的
:from torch import distributions as tdist import torch.nn.functional as Fthe
KL
divergence between two distributions.&
浏览 54
提问于2022-06-23
得票数 3
回答已采纳
2
回答
利用
分布
样本
计算
KL
散
度
估计
、
、
给出从
两个
不同
分布
中抽取
的
两组
样本
,用这些
样本
计算得到
两个
分布
之间
KL
-
散
度
的
估计值吗? 这里我假设这
两个
分布
的
维数很高(比如说d)。为了计算估计,我们首先需要离散整个空间,然后根据频率估计概率。那么空间中
的
网格总数将是p^d。因此,我们需要计算p^d网格
的
两个
分布
的
浏览 0
提问于2018-03-22
得票数 3
1
回答
在Keras中实现
KL
发散
的
意义是什么?
、
、
、
我可以对
来自
y_true和y_pred
的
任意一对行进行
KL
散
度
计算,并得到预期
的
结果。这些
KL
散
度
的
平均值与训练历史中Keras报告
的
损失相匹配。但是,这种聚合--在每一行上运行
KL
散
度
并取平均值--在损失函数中不会发生。我想这些例子是
来自
真实
分布
的
随机
样本
,所以它们应该与它
浏览 0
提问于2017-06-05
得票数 7
回答已采纳
1
回答
VAE中
的
KL
散
度
、
如果我正确理解,
KL
-
散
度
是
两个
分布
的
相对熵。要计算
两个
分布
的
KL
散
度
,需要
两个
随机变量向量。 我不明白
的
是,
如何
计算VAE (潜空间向量和N(0,1) )中
的
KL
散
度
,正如许多教程中所述。潜空间向量不是随机变量
的
向量。它是输入、权值、偏差
浏览 0
提问于2018-12-10
得票数 0
回答已采纳
1
回答
在神经网络中,
两个
高斯
分布
之间
的
KL
散
度
作为损失函数
的
影响是什么?
、
、
在许多深层神经网络中,特别是基于VAE结构
的
神经网络中,在损失函数
的
基础上加入了
KL
散
度
项。计算了估计
的
高斯
分布
和先验
分布
之间
的
散
度
。由于高斯
分布
完全由均值和协方差来表示,所以只有这
两个
参数是用神经网络估计
的
。对于高斯
分布
,
KL
散
度
有一个封闭形式
的
解。通过最
浏览 0
提问于2019-12-23
得票数 2
回答已采纳
1
回答
用SELU激活函数改进变分自动编码器结构
、
、
然后是潜在变量层,即
来自
高斯
分布
的
样本
,即
来自
下面层
的
µ和sigma
的
样本
。在成本函数中,我们使用
KL
散
度
来确保潜在变量
的
激活遵循单位高斯
分布
。
浏览 3
提问于2017-07-11
得票数 0
2
回答
比较ML模型
的
KL
-
散
度
、
、
在x再训练
的
基础上,计算每个模型
的
x预测误差,并绘制相应
的
分布
图。这意味着,对于模型A,我们有一个误差密度\mathcal{D}_A,对于B一个密度\mathcal{D}_B。显然,如果A \mu_A < \mu_B
的
误差平均值和A \sigma_A < \sigma_B 误差
的
标准差,我会选择A作为我
的
最佳模型。但是如果\mu_A < \mu_B但是\sigma_A > \sigma_B,我们
如何
选择这个模型呢?我
的<
浏览 0
提问于2021-07-17
得票数 2
回答已采纳
1
回答
使用Kullback
散
度
的
字符
散
度
、
我正在尝试计算字符串中字符
的
散
度
,但我真的不知道
如何
将Kullback
散
度
算法应用于这样
的
问题。请大家解释一下KLD算法,我可以用它来解决这样
的
问题。 谢谢
浏览 2
提问于2011-09-01
得票数 2
回答已采纳
1
回答
如何
解决
两个
数据集
的
Kullback Leibler
散
度
、
、
、
我有
两个
数据集,包含40000个
样本
。我想在python中计算这
两个
数据集之间
的
Kullback-Leibler
散
度
。在python中有什么有效
的
方法可以做到这一点吗?
浏览 2
提问于2017-07-13
得票数 3
1
回答
如何
度量具有相同特性
的
两个
数据集之间
的
相似性?
、
、
、
、
我有多个具有相同功能
的
数据集,一些数字数据集和一些分类数据集。唯一
的
区别是它们是不同国家
的
市场行为。我想知道是否有一种方法来测量
两个
或多个数据集之间
的
相似性,并提供一定
的
相似性。例如,美国和英国
的
市场行为90%是相似的。这样做
的
目的是找出类似的市场,然后用它们来计算因果影响。请告诉我什么是最好
的
方法。
浏览 0
提问于2022-06-20
得票数 0
1
回答
如何
找到
两个
数据之间
的
熵或
KL
差异?
、
、
、
、
我有
两个
相同形状
的
数据集:( 576,450,5)其中576是示例数,450是时间点,5是通道数。 我要计算这
两个
数据之间
的
熵和
KL
-
散
度
。但我知道,熵和
kl
-
散
度
是在概率
分布
之间计算
的
,但数据只是数值(而不是概率
分布
)。那么,我
如何
计算我
的
数据呢?我应该把我
的
数据转换成概率
分布
吗?如果是这样
浏览 17
提问于2022-11-08
得票数 0
1
回答
CNN标记,以便每个输入可以有多个标记。
、
、
、
、
谢谢你提前阅读了我
的
问题! 我一直使用CNN来使用Keras和TF对文本进行分类。我
的
数据是字符串“我读新闻”或“我读机器学习新闻”,我
的
标签是:数据科学,记者,儿童。我
的
问题是,每个文本都可以附加多个标签。我应该
如何
构造我
的
目标,以便能够捕获每一个多个输出?
浏览 0
提问于2016-09-28
得票数 1
回答已采纳
1
回答
如何
衡量
两个
变量
分布
的
切线关系,梳理与否?
、
有没有统计方法来评估2个
分布
的
切线关系?import matplotlib.pyplot as plt 2具有不同y轴值
的
分布
0,1
浏览 3
提问于2014-01-17
得票数 1
2
回答
可以指定
两个
分布
之间
的
相关性吗?
、
、
、
就上下文而言,假设有
两个
学术考试--上午和下午--进行。我只得到了总结统计数据--
两个
考试成绩
的
平均值,中位数,斜度和峰度,所以我无法确切地说出有多少学生通过了考试,但我可以通过拟合这些时刻并建立一个自定义
的
pearson
分布
来估算它。如果学生在
两个
考试中
的
表现都是完全独立
的
,我认为这会很容易--我只需以两份清单
的
形式为
两个
测试生成分数,平均起来,计算超过60%
的
项目数,然后重复,比如10000次。
浏览 5
提问于2020-11-17
得票数 0
回答已采纳
1
回答
计算矩阵和向量行间
的
KL
散
度
、
、
我有一个矩阵(numpy
2d
数组),其中每一行都是有效
的
概率
分布
。我有另一个向量(numpy 1d数组),同样是一个prob。我需要计算矩阵
的
每一行和向量之间
的
KL
散
度
。在不使用for循环
的
情况下可以这样做吗? 问了同样
的
问题,但没有一个答案能解决我
的
问题。其中一个建议使用for循环,这是我想避免
的
,因为我有大量
的
数据。另一个答案是在tensorflow中提供了
浏览 2
提问于2019-07-21
得票数 0
回答已采纳
1
回答
在解释损失时所需要
的
帮助,val_loss还是自动编码器训练
的
划时代计划?
、
、
、
、
我不认为这是过分适合
的
数据。但我想确定一下,并因此征求数据科学界
的
意见。 谢谢。
浏览 0
提问于2021-04-02
得票数 0
1
回答
计算
两个
伽马
分布
表间
的
KL
散
度
、
、
、
actual_population_distribution =0.2、0.3、0.3、0.2
kl
= np.sum(scipy.special.
kl
_div(actual_grs, sample_grs)) 上面的代码不会产生任何错误。var, skew, ku
浏览 4
提问于2019-08-05
得票数 1
2
回答
关于
KL
-
散
度
和特征选择
的
直觉
、
我在理解
KL
-
散
度
以及
如何
使用它进行特征选择时有点困难。因此,假设我有一组观察值(例如,0和1),并为每个观察值生成2个特征。我现在
的
问题是:为什么特性是“最好
的
”?我知道我可以使用
KL
-
散
度
(由$$D_{
KL
} =log(I)\ \sum_i \frac{ p(i) }{q(I)}$$给出),但是什么是P,什么是Q?我
的
直觉告诉我,P是特征1,Q是真正
的
分布
(所
浏览 4
提问于2016-06-04
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
KL散度和交叉熵的对比介绍
理解变分自动编码器
从香农熵到手推KL散度:一文带你纵览机器学习中的信息论
掌握机器学习数学基础之信息论及其他(一)
深度学习贝叶斯,这是一份密集的6天速成课程
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券