腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何计算小波能量与香农
熵
比,以选择最佳母离散小波?
、
我读过一篇文章说:“该方法首先使用
最大
能量与香农
熵
比的准则来选择合适的小波基进行信号分析。”那么,我想知道如何计算
python
中传感器信号的能量-Shannon
熵
比?
浏览 6
提问于2019-08-06
得票数 1
回答已采纳
2
回答
在Keras和TensorFlow中,所有这些交叉
熵
损失有什么区别?
、
、
、
、
所有这些交叉
熵
损失之间有什么区别?凯拉斯在说 他们之间的区别和关系是什么?还有其他的交叉
熵
类型应该知道吗?有没有没有逻辑的交叉
熵
类型?
浏览 4
提问于2017-06-21
得票数 40
回答已采纳
1
回答
tf.nn.softmax_cross_entropy_with_logits如何计算tensorflow中的
最大
交叉
熵
?
tf.nn.softmax_cross_entropy_with_logits,文档显示它计算了逻辑和标签之间的
最大
交叉
熵
,这意味着什么?它不是应用了交叉
熵
损失函数公式吗?为什么文档说它计算软
最大
交叉
熵
?
浏览 5
提问于2017-05-22
得票数 2
1
回答
特征选择-条件
熵
、
、
本文提出了一种用于文本分类中特征选择的条件
熵
定义算法。我遵循CharuC.Aggarwal (5.2.2)在机器学习文本中的公式。作者提到,条件
熵
值介于(0,log(类数))之间,而我的情况是(0,0.6931472)。作者还提到,
最大
值的特征可以删除,但是他没有给出定义‘
最大
’的标准的进一步信息(是
熵
的
最大
值还是
最大
熵
值的集合?) E.tj
浏览 0
提问于2020-09-17
得票数 2
回答已采纳
2
回答
当分割被完全分类时,在ID3算法中计算属性的
熵
、
、
我最近读到了ID3算法,它说选择最好的属性进行分割应该导致
最大
的信息增益,这可以在
熵
的帮助下计算。
熵
(X)= 0.8*_E(5,3) + 0.2*_E(2,0) 然而,第二个分裂P(1)是完全分类的,这导致了一个数学错误,因为log2(0)是负无穷大。在这种情况下,如何计算
熵
?
浏览 0
提问于2016-09-30
得票数 3
1
回答
Mersenne (MT)的
熵
是多少?
从严肃的密码学来看:“当分布均匀时,
熵
是
最大
化的,因为均匀分布使不确定性
最大
化:没有任何结果比其他的结果更有可能,因此,n位值不能超过n位
熵
。”MT力求有尽可能均匀的分布,因此人们会认为
熵
是
最大
化的,并且等于种子的位长。 但是,经过624次迭代后,MT变得完全可预测,此时它的
熵
应该被认为是零,但随后的分布仍然是一致的。
浏览 0
提问于2019-01-20
得票数 6
1
回答
基于Maxent模型的情感分析特征
、
、
我想用
最大
熵
模型来实现我自己的情感分析。不用任何阿皮。
最大
熵
模型的最佳特征f(c,d)是什么?我有三类--正面、负面和中性。
浏览 8
提问于2015-10-17
得票数 0
回答已采纳
1
回答
如何在分类损失和正则化之间取得正确的平衡?
、
、
、
、
我正在开发一个深度学习分类器(Keras和
Python
),它将时间序列分为三类。我使用的损失函数是标准的分类交叉
熵
。除此之外,我还有一个在同一模型中学习的注意力地图。我想要的是网络首先达到
最大
的分类精度,然后开始最小化强度注意力图。出于这个原因,我训练我的模型一次没有正则化,第二次使用正则化。然而,如果正则化参数(lambda)太高,网络就会完全失去准确性,只会最小化注意力,而如果正则化参数太小,网络只关心分类误差,不会最小化注意力,即使准确度已经是
最大
值。有没有一种更聪明的方法来结合分类交叉
熵
和正则化?
浏览 4
提问于2018-10-01
得票数 0
6
回答
任何可读和可读的
Python
密码生成器?
、
它非常简单,可以在
Python
中生成一个随机字符串(如显示)。但是,是否有任何
Python
项目,这些项目将生成既可读又可读的密码字符串?说到可读性,我的意思是不把0和O放在同一个字符串中,等等。我不在乎它是否有
最大
熵
,只是比我可能选择的更好。:)
浏览 8
提问于2011-03-31
得票数 13
回答已采纳
1
回答
生成大量唯一随机float32数
、
、
、
、
然后计算该文件的
熵
,并将其与其他数据集
熵
相结合,计算出比值
熵
_ file /
熵
_randUnique。这个值称为“随机性”。我可以在
python
中使用双精度数字并将它们插入set()中,使用如下所示的struct.pack: while len(numbers) < size:如何在二进制文件中获得370914252 (这是我
最大
的测试用例)唯一的float32,即使它们不是随机的,我认为洗牌序列就足够了。
浏览 1
提问于2013-11-20
得票数 7
回答已采纳
6
回答
什么是“
熵
和信息增益”?
、
、
、
、
Entropy is 如何将
熵
和
最大
熵
应用于文本挖掘?谁能给我一个简单的例子(视觉)?
浏览 126
提问于2009-12-07
得票数 349
回答已采纳
1
回答
如何在码头集装箱中获得足够的
熵
?
、
、
、
、
据推测,任何低于4位数的东西都是坏的,保持它接近4096 (
最大
值)是理想的。我读过一个名为haveged的
熵
收集守护进程,但是它被认为是过时的,因为LinuxKern5.6,所以我不确定这是否是正确的解决方案。为什么我的
熵
在运行5.10内核的Docker容器中如此之低,我能做些什么来修复它呢? 我最初是在
Python
的“当日引号”脚本不断选择相同的几个引号时发现这一点的。我不是手动播种
Python
的标准随机模块,但根据它的文档和源代码,它应该是从系统
熵
(如果可用的话直接通过getent
浏览 0
提问于2021-10-26
得票数 3
回答已采纳
2
回答
一个新的智力方程:
熵
最大
化的困难
、
、
我试着读了一篇与相关的学术论文,这是与他的演讲相关的,但我对数学和物理的理解还不够,无法真正理解发生了什么,更重要的是,我如何能在
python
中再现这个方程。我发现在
python
中实现的
熵
最大
化有两个独特的模型,但我不知道如何设置它们,以及它们是否与Wissner-格罗斯的方程相同。枕木:假设这些方程是Wissner方程的不同形式,并使用上面的库或其他库,如何建立
熵
最大
化算法。
浏览 0
提问于2014-05-20
得票数 8
1
回答
如何利用香农
熵
产生的信息区分低
熵
和高
熵
、
、
、
我计算了一天内用户行为的
熵
水平,计算了其可能出现的状态(H:=Home、w:=Work或E:=Elsewhere)。假设用户A以{H,W,E,E,H,H}表示一天中每小时的可能状态P(W)=9/24=0.38使用shannon的
熵
,我想计算一个用户的
熵
级别H(A)=(-P(H)*log2 2(H))+(-P(W)*log2 2(W))+(-P(E)*log2 2(E))如何区分比特中的低<em
浏览 3
提问于2014-03-10
得票数 1
回答已采纳
1
回答
什么是排列
熵
?
、
我想知道什么是置换
熵
(PE)。然后,我了解了这论文,它描述了体育。现在,假设我们有一个由
熵
源产生的伪随机排列,我们使用了一个统一的洗牌算法(比如Fisher-Yates洗牌算法)。另外,假设我们使用256位
熵
来洗牌\{0,1\}^8\rightarrow\{0,1\}^8.那么,输出排列可以具有
最大
256位
熵
的事实是真的吗?对于
熵
的每一个值,我们将得到一个唯一的对应排列。
浏览 0
提问于2020-11-10
得票数 0
1
回答
我们能在
最大
熵
模型中使用梯度下降法吗?
我看到很多实现使用GIS或IIS来训练
最大
熵
模型。我们能用梯度下降法吗?如果我们可以使用它,为什么大多数教程直接告诉GIS或IIS方法,但不显示简单的梯度下降法来训练
最大
熵
模型?正如我们所知,softmax回归相当于
最大
模型,但我从未听说过GIS或IIS在softmax中。为什么?是否有一个玩具代码使用简单的梯度去训练
最大
模型?
浏览 0
提问于2016-07-10
得票数 2
回答已采纳
3
回答
Python
NLTK
最大
熵
分类器错误
、
、
、
从文档中看,它应该采用与Naive Bayes相同的功能集格式,但由于某种原因,我在尝试它时遇到了这个错误: gaussian_prior_sigma, **cutoffs) File "/usr/lib/
python
2.7line 1453, in
浏览 0
提问于2012-04-05
得票数 3
1
回答
熵
与信息关系
、
、
在压缩和信息论中,源的
熵
是源符号所能传递的平均信息量(以位为单位)。非正式地说,如果我们确定一个事件的结果,那么
熵
就会变小。我的问题是 最小误差
熵
的基本原理是什么?当
熵
最大
时,我们能对信息说些什么?谢谢
浏览 6
提问于2014-07-26
得票数 2
回答已采纳
1
回答
使用一个热编码和softmax的Pytorch (范畴)交叉
熵
损失
、
、
、
我在寻找一个传递
熵
损失函数,就像Tensorflow中的CategoricalCrossEntropyLoss。targets = [0, 0, 1]我要计算软件
最大
值上的(范畴)交叉
熵
,而不是,而不是,把预测的
最大
值作为标签,然后计算交叉
熵
。
浏览 3
提问于2020-11-29
得票数 1
1
回答
解释
熵
大小的经验法则
、
我有一个关于
熵
的解释的问题。对于我的数据集中的每个人,我都有一个17个字符(年份)的字符串/序列。我特别感兴趣的是在这个观察期内发生了多大的变化。我正在考虑使用R的TraMineR包来计算序列内的
熵
。我知道这是可以归一化的,所以
最大
熵
变成1(显然是最小的0 )。我的问题是,是否有任何经验法则来说明什么是高
熵
,什么是低
熵
(例如,在相关系数的情况下)。例如,0.4是高值还是低值? 谢谢。
浏览 1
提问于2016-02-04
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一文读懂最大熵原理及Python实现
最大熵模型原理小结
详解机器学习中的熵、条件熵、相对熵、交叉熵
每天一个ml模型——逻辑斯蒂回归与最大熵模型
与熵对决
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券