腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(4301)
视频
沙龙
1
回答
变
分
自动
编码器
损失
正在
增加
、
、
、
、
这是我创建异常卷积
自动
编码器
的特殊代码,我的问题是
损失
函数根本不能收敛到任何东西。我尝试过不同的优化器来计算
损失
。我的AutoEncoder有什么根本错误的地方吗?
浏览 1
提问于2018-02-01
得票数 1
1
回答
Keras
变
分
自动
编码器
实现显示错误的重构和KL
损失
我
正在
实现Keras
变
分
自动
编码器
()。在培训过程中,印刷的总
损失
不是重建
损失
和kl
损失
的总和。对于如何解决这个问题,有什么建议吗? 我怀疑这个问题与丢失追踪器有关,但我不知道如何解决。
浏览 3
提问于2022-10-26
得票数 0
1
回答
为什么在异常检测中使用
变
分
自动
编码器
VAE而不是
自动
编码器
AE?
、
、
、
我读过许多论文,推荐使用
变
分
自动
编码器
而不是
自动
编码器
,因为它们具有更多的概率方法,并且能够在潜在维度上使用KL散度。但是,在对这两个网络进行测试时,我发现
变
分
自动
编码器
输出的可变性降低了网络的精度,使用
自动
编码器
的效果更好。我仍然致力于非常简单的数据和培训我的网络上的正常图像,没有任何增强或改变的背景。
变
分
自动
编码器<
浏览 0
提问于2019-04-03
得票数 1
1
回答
简单二进制数据
自动
编码器
的丢失与精度
、
、
、
我试图理解和提高
变
分
自动
编码器
的丢失和准确性。我用一个简单的二进制数据填充了
自动
编码器
:sent_encoded = encoder.predict(np.array(test), batch_size = batch_size)
浏览 0
提问于2018-04-11
得票数 0
1
回答
变
分
自动
编码器
: MSE与BCE
、
、
、
、
我
正在
使用一个
变
分
自动
编码器
,我看到有些人使用MSE
损失
,有些人使用BCE
损失
,有人知道其中一个比另一个更正确吗?为什么?据我所知,如果你假设VAE的潜在空间向量服从高斯分布,你应该使用MSE
损失
。如果你假设它服从多项分布,你应该使用BCE。此外,BCE偏向于0.5。 有人能给我解释一下这个概念吗?我知道这与信息期望的下限
变
分
项有关。 非常感谢!
浏览 28
提问于2020-12-10
得票数 0
回答已采纳
1
回答
哪种类型的
自动
编码器
为文本提供最佳结果?
、
、
、
我做了几个图像
自动
编码器
的例子,它们工作得很好。现在,我想为文本做一个
自动
编码器
,它接受一个句子作为输入,并返回相同的句子。但是当我尝试使用和图像相同的
自动
编码器
时,我会得到不好的结果。您有用于Keras中文本的
自动
编码器
工作示例的链接吗? 我看到,在大多数论文中,他们使用交叉熵作为
损失
函数。交叉熵是如何精确计算
损失
的?即使我用字符
自动
编码器
做一个字符,使用交叉熵也有意义吗?
浏览 0
提问于2018-03-25
得票数 9
1
回答
为什么改变
损失
函数的规模会改善某些模型的收敛性?
、
、
、
、
我有一个关于一个非常复杂的
损失
函数的问题。这是一个
变
分
的
自动
编码器
损失
函数,它相当复杂。 它是由两个重建
损失
,KL散度和判别器作为正则化。所有这些
损失
都是相同的规模,但我发现,将重建
损失
中的一个
增加
20倍(而剩下的部分在前一个比额表上)会大大提高我的模型的性能。
浏览 3
提问于2022-07-15
得票数 0
回答已采纳
1
回答
在解释
损失
时所需要的帮助,val_loss还是
自动
编码器
训练的划时代计划?
、
、
、
、
我
正在
训练一个
变
分
自动
编码器
,我得到了一个
损失
图,如下所示:在224号时代之后,val
损失
超过了火车
损失
,并且变得越来越大,但速度非常慢,你可以注意到。我训练了300个时代。
浏览 0
提问于2021-04-02
得票数 0
1
回答
自动
编码器
的损耗函数
、
我试图理解
自动
编码器
的丢失功能。但我不明白如何比较才能找到
编码器
错误。 有人向我解释说,它是用来找
编码器
错误的。和解码器。
浏览 0
提问于2020-10-23
得票数 0
1
回答
VAE中KL发散而不是交叉熵的原因
、
、
、
、
我理解KL散度是如何为我们提供一个度量一个概率分布与另一个参考概率分布是如何不同的。但是为什么它们在VAE中(而不是交叉熵)被特别使用(这是生成的)?
浏览 0
提问于2020-09-24
得票数 4
1
回答
ELBO是否包含
变
分
自动
编码器
中的重构
损失
信息?
、
、
这是一个与此相关的问题- 另一方面,利用日志概率和KL散度生成证据下限(ELBO)。然后将ELBO值的负值最小化。 在这两种情况下,根据输入的模式(例如MNIST中的数字)对潜在空间进行分区。因此,我想知道ELBO是否是或包含类似于重建
损失
的信息。
浏览 0
提问于2018-04-27
得票数 3
回答已采纳
1
回答
VAE的重建
损失
函数
、
、
我
正在
从TensorFlow文档提供的一个例子中学习def log_normal_pdf(sample, mean, logvar, raxis=1): log2pi = tf.math.log(2. * np.pi)Another ,如果x > 1,可以使用什么样的
损失
?可以用其他的
损失
函数作为重建
损失
,例如Huber
损失
,例如使用了MSE
损失
(如下所示),MSE<em
浏览 4
提问于2022-06-30
得票数 0
1
回答
具有多个输入和输出的
变
分
自动
编码器
、
、
、
、
我已经在Keras中构建了一个
自动
编码器
,它接受多个输入和相同数量的输出,我想将其转换为
变
分
自动
编码器
。我很难将输入和输出之间的差值的
损失
和
变
分部分的
损失
结合起来。因此,我的
自动
编码器
接受一组输入向量,生成相同数量和形状的输出向量。/权重,这取决于我想要在
自动
编码器
中有什么列。我的问题是: 我现在已经将设置扩展到一个
变
分</em
浏览 20
提问于2019-09-30
得票数 2
回答已采纳
1
回答
对于VAE中的重建
损失
,数据和解码器重建的输出可以具有不同的通道尺寸吗?
、
我
正在
使用的大部分基础实现一个
变
分
自动
编码器
。 我的输入数据目前是500个样本乘以125个通道(脑电图数据),但我有意使解码后的输出只有1个通道,例如[500,1]。我的重建
损失
是将我的输入数据和重建的解码器输出[500,125]与[500,1]进行比较的二进制交叉熵。代码运行时没有任何警告或错误,但我不确定是否可以比较不同通道维度的数据,以及这是否反映在我的重建
损失
或KL
损失
中。Keras/TF是否考虑到了不同的渠道,并以某种方式能够在所有
浏览 3
提问于2020-11-03
得票数 1
2
回答
变
分
自动
编码器
TIme级数
、
、
有人能推荐一个
变
分
自动
编码器
用于时间序列预测的博客吗?
浏览 0
提问于2018-07-12
得票数 2
1
回答
* TypeError:预期的float32传递给op 'Equal‘的参数'y’,得到'str‘类型的'auto’
、
、
、
、
我
正在
处理一个keras.io示例,其中构建了一个
变
分
的
自动
编码器
,在这里可以找到: ,,我试图用MeanSquaredError-
损失
替换二进制_交叉熵
损失
,但是我得到了一个TypeError。错误:预期的float32,得到‘
自动
’类型'str‘而不是。此外,我不明白为什么使用二进制交叉熵
损失
,因为我把这个
损失
理解为分类
损失
,但在这里,我比较原始数据的值和它的重构,这是一种回归,而不是
浏览 3
提问于2021-06-01
得票数 0
1
回答
使用完整输入数据集样本的Keras自定义
损失
函数
、
、
我
正在
尝试为Keras中的
变
分
自动
编码器
设计一个自定义
损失
函数,分为两个部分:reconstruction loss和divergence loss。但是,我不想使用高斯分布来表示发散
损失
,而是希望从输入中随机采样,然后基于采样的输入执行发散
损失
。然而,我不知道如何对来自完整数据集的输入进行采样,然后对其执行
损失
。
编码器
模型为: x_input = Input((input_size,)) enc1 = Dense(
浏览 13
提问于2019-09-22
得票数 1
回答已采纳
2
回答
keras
变
分
自动
编码器
损失
函数
、
、
、
我读过Keras在VAE实现上的,其中VAE
损失
是这样定义的: xent_loss = objectives.binary_crossentropyz_log_sigma - K.square(z_mean) - K.exp(z_log_sigma), axis=-1)我查看了,VAE
损失
函数是这样定义的
浏览 24
提问于2020-02-21
得票数 4
回答已采纳
5
回答
Keras -
变
分
自动
编码器
NaN
损失
、
、
、
我
正在
尝试使用我在Keras示例中找到的
变
分
自动
编码器
的实现()。15474/15474 [==============================] - 1s 62us/step - loss: nan - val_loss: nan 对于所有训练时期,
损失
都是相同的
浏览 4
提问于2018-04-04
得票数 5
1
回答
变
分
自动
编码器
损失
函数(keras)
、
、
、
、
我
正在
使用Keras构建一个
变
分
自动
编码器
。我在很大程度上受到了@Fchollet示例的启发: 但我使用的是连续数据。我的输出是一个持续时间,而不是像MNIST中那样对数字进行排序。在这方面,我将
损失
函数从binary_crossentropy改为mean_squared_error。我最想知道的是第二项,KL发散。它应该能很好地处理连续数据吗?我无法理解这件事。下面是当我将kl_loss函数的系数
增加
到"-100000“而不是"-0.5”时会发生的
浏览 2
提问于2017-09-22
得票数 5
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券