腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1387)
视频
沙龙
1
回答
Keras
变
分
自动
编码器
实现显示错误的重构和KL
损失
我正在实现
Keras
变
分
自动
编码器
()。在培训过程中,印刷的总
损失
不是重建
损失
和kl
损失
的总和。对于如何解决这个问题,有什么建议吗? 我怀疑这个问题与丢失追踪器有关,但我不知道如何解决。
浏览 3
提问于2022-10-26
得票数 0
1
回答
哪种类型的
自动
编码器
为文本提供最佳结果?
、
、
、
我做了几个图像
自动
编码器
的例子,它们工作得很好。现在,我想为文本做一个
自动
编码器
,它接受一个句子作为输入,并返回相同的句子。但是当我尝试使用和图像相同的
自动
编码器
时,我会得到不好的结果。您有用于
Keras
中文本的
自动
编码器
工作示例的链接吗? 我看到,在大多数论文中,他们使用交叉熵作为
损失
函数
。交叉熵是如何精确计算
损失
的?即使我用字符
自动
编码器
做一
浏览 0
提问于2018-03-25
得票数 9
2
回答
keras
变
分
自动
编码器
损失
函数
、
、
、
我读过
Keras
在VAE实现上的,其中VAE
损失
是这样定义的: xent_loss = objectives.binary_crossentropyz_log_sigma - K.square(z_mean) - K.exp(z_log_sigma), axis=-1)我查看了,VAE
损失
函数
是这样定义的
浏览 24
提问于2020-02-21
得票数 4
回答已采纳
1
回答
变
分
自动
编码器
损失
函数
(
keras
)
、
、
、
、
我正在使用
Keras
构建一个
变
分
自动
编码器
。我在很大程度上受到了@Fchollet示例的启发:def va
浏览 2
提问于2017-09-22
得票数 5
1
回答
在
变
分式
自动
编码器
中加入KL散度的最聪明方法
、
、
、
我有一个
自动
编码器
模型的,具有多个输出和加权,这是一个想要丰富变成一个
变
分
的
自动
编码器
。我遵循了以下内容:官方
keras
教程。但是,如果手动调整train_step
函数
,我就失去了最初实现的大部分细节: 我得到了两个加权优化目标:重新构造(解码器)和分类(softmax)。根据
keras
链路添加建议的采样层是没有问题的,但是要正确地实现Kullback-Leibler-Loss,因为它依赖于不受标准
Keras
<e
浏览 3
提问于2020-10-06
得票数 2
1
回答
* TypeError:预期的float32传递给op 'Equal‘的参数'y’,得到'str‘类型的'auto’
、
、
、
、
我正在处理一个
keras
.io示例,其中构建了一个
变
分
的
自动
编码器
,在这里可以找到: ,,我试图用MeanSquaredError-
损失
替换二进制_交叉熵
损失
,但是我得到了一个TypeError。我要做什么,才能得到tf.reduce_mean(tf.reduce_sum(
keras
.losses.binary_crossentropy(data,重建),axis=(1,2),reconstruction_loss= tf.reduce_mean(tf
浏览 3
提问于2021-06-01
得票数 0
1
回答
简单二进制数据
自动
编码器
的丢失与精度
、
、
、
我试图理解和提高
变
分
自动
编码器
的丢失和准确性。我用一个简单的二进制数据填充了
自动
编码器
:sent_encoded = encoder.predict(np.array(test), batch_size = batch_size)
浏览 0
提问于2018-04-11
得票数 0
1
回答
对于VAE中的重建
损失
,数据和解码器重建的输出可以具有不同的通道尺寸吗?
、
我正在使用的大部分基础实现一个
变
分
自动
编码器
。 我的输入数据目前是500个样本乘以125个通道(脑电图数据),但我有意使解码后的输出只有1个通道,例如[500,1]。我的重建
损失
是将我的输入数据和重建的解码器输出[500,125]与[500,1]进行比较的二进制交叉熵。代码运行时没有任何警告或错误,但我不确定是否可以比较不同通道维度的数据,以及这是否反映在我的重建
损失
或KL
损失
中。
Keras
/TF是否考虑到了不同的渠道,并以某种方式能够在所有
浏览 3
提问于2020-11-03
得票数 1
1
回答
具有多个输入和输出的
变
分
自动
编码器
、
、
、
、
我已经在
Keras
中构建了一个
自动
编码器
,它接受多个输入和相同数量的输出,我想将其转换为
变
分
自动
编码器
。我很难将输入和输出之间的差值的
损失
和
变
分部分的
损失
结合起来。因此,我的
自动
编码器
接受一组输入向量,生成相同数量和形状的输出向量。/权重,这取决于我想要在
自动
编码器
中有什么列。我的问题是: 我现在已经将设置扩展到一个
变
浏览 20
提问于2019-09-30
得票数 2
回答已采纳
5
回答
Keras
-
变
分
自动
编码器
NaN
损失
、
、
、
我正在尝试使用我在
Keras
示例中找到的
变
分
自动
编码器
的实现()。15474/15474 [==============================] - 1s 62us/step - loss: nan - val_loss: nan 对于所有训练时期,
损失
都是相同的
浏览 4
提问于2018-04-04
得票数 5
1
回答
使用完整输入数据集样本的
Keras
自定义
损失
函数
、
、
我正在尝试为
Keras
中的
变
分
自动
编码器
设计一个自定义
损失
函数
,分为两个部分:reconstruction loss和divergence loss。但是,我不想使用高斯分布来表示发散
损失
,而是希望从输入中随机采样,然后基于采样的输入执行发散
损失
。然而,我不知道如何对来自完整数据集的输入进行采样,然后对其执行
损失
。
编码器
模型为: x_input = Input((input_size,)) enc1
浏览 13
提问于2019-09-22
得票数 1
回答已采纳
1
回答
变
分
自动
编码器
: MSE与BCE
、
、
、
、
我正在使用一个
变
分
自动
编码器
,我看到有些人使用MSE
损失
,有些人使用BCE
损失
,有人知道其中一个比另一个更正确吗?为什么?据我所知,如果你假设VAE的潜在空间向量服从高斯分布,你应该使用MSE
损失
。如果你假设它服从多项分布,你应该使用BCE。此外,BCE偏向于0.5。 有人能给我解释一下这个概念吗?我知道这与信息期望的下限
变
分
项有关。 非常感谢!
浏览 28
提问于2020-12-10
得票数 0
回答已采纳
1
回答
Keras
的
损失
在模型之间存在数量级的差异,这意味着什么?
、
、
、
对于上下文,我在
Keras
中训练了两个独立的
自动
编码器
:一个具有标准的MSE
损失
函数
,另一个具有自定义的MSE
损失
函数
。当在训练中的给定时间点评估这两个模型时,它们具有非常相似的性能,但
损失
却非常不同。 我的性能指标是平均百
分
比误差。这两个模型都在重建原始图像,平均误差在3%左右。然而,当这些模型被保存时,标准
Keras
MSE模型的
损失
不到1.0,而具有自定义MSE成本
函数
的模型
浏览 31
提问于2020-04-24
得票数 0
回答已采纳
1
回答
在
Keras
中实现KL发散的意义是什么?
、
、
、
我有点困惑KL发散是如何应用的,特别是在
Keras
中,但我认为这个问题对于深度学习应用来说是一个普遍的问题。在
keras
中,KL
损失
函数
定义如下: y_true = K.clip(y_true, K.epsilon这些KL散度的平均值与训练历史中
Keras
报告的
损失
相匹配。但是,这种聚合--在每一行上运行KL散度并取平均值--在
损失
函数
中不会发生。
浏览 0
提问于2017-06-05
得票数 7
回答已采纳
1
回答
VAE中KL发散而不是交叉熵的原因
、
、
、
、
我理解KL散度是如何为我们提供一个度量一个概率分布与另一个参考概率分布是如何不同的。但是为什么它们在VAE中(而不是交叉熵)被特别使用(这是生成的)?
浏览 0
提问于2020-09-24
得票数 4
1
回答
自动
编码器
的损耗
函数
、
我试图理解
自动
编码器
的丢失功能。但我不明白如何比较才能找到
编码器
错误。 有人向我解释说,它是用来找
编码器
错误的。和解码器。
浏览 0
提问于2020-10-23
得票数 0
1
回答
为什么改变
损失
函数
的规模会改善某些模型的收敛性?
、
、
、
、
我有一个关于一个非常复杂的
损失
函数
的问题。这是一个
变
分
的
自动
编码器
损失
函数
,它相当复杂。 它是由两个重建
损失
,KL散度和判别器作为正则化。所有这些
损失
都是相同的规模,但我发现,将重建
损失
中的一个增加20倍(而剩下的部分在前一个比额表上)会大大提高我的模型的性能。
浏览 3
提问于2022-07-15
得票数 0
回答已采纳
2
回答
对于
变
分
自动
编码器
,重建
损失
应该计算为图像上的总和还是平均?
、
、
、
、
我正在学习这个
变
分
自动
编码器
教程:。 我知道VAE的
损失
函数
由比较原始图像和重建图像的重建
损失
以及KL
损失
组成。然而,我对重建
损失
以及它是在整个图像上(平方差的总和)还是每个像素(平方差的平均和)感到有点困惑。我的理解是重建
损失
应该是每像素( MSE ),但我遵循的示例代码将MSE乘以28 x 28,即MNIST图像尺寸。对吗?此外,我的假设是,这将使重建
损失
项明显大于KL
损失
,我
浏览 8
提问于2020-09-01
得票数 3
2
回答
对于文本
自动
编码器
,我应该使用什么丢失功能?
、
、
我正在尝试为文本实现一个
自动
编码器
。但是我不知道我应该使用哪种
损失
函数
?我试过使用mse,但我
损失
了1063442。我试图构建一个非常简单的
自动
编码器
,只使用
Keras
中的LSTM层。
浏览 0
提问于2018-03-28
得票数 0
1
回答
VAE的重建
损失
函数
、
、
损失
职能的执行情况如下: log2pi = tf.math.log(2. * np.pi)Another ,如果x > 1,可以使用什么样的
损失
?可以用其他的
损失
函数
作为重建
损失
,例如Huber
损失
,例如使用了MSE
损失
(如下所示),MSE
损失
是一个有效的ELBO
损失
来度量p(x=z)吗?
浏览 4
提问于2022-06-30
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
理解变分自动编码器
从自编码器到变分自编码器
没有任何公式——直观的理解变分自动编码器VAE
周末AI课堂:理解变分自编码器
10分钟搞懂损失函数
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券