腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(4777)
视频
沙龙
2
回答
为什么
keras
计算
的
损失
函数
(
mse
)
与我
的
不一样
、
、
我想自己测试
keras
中
的
损失
函数
,
mse
。然而,
计算
出
的
答案是不同
的
。
mse
的
定义如下:https://en.wikipedia.org/wiki/Mean_squared_error 测试代码如下: from
keras
.datasets import boston_housinglayers.Dense(64, activation='relu
浏览 174
提问于2021-05-01
得票数 0
1
回答
Keras
内置
的
MSE
损失
在2D数据上返回2D矩阵,而不是标量
损失
。
、
、
、
、
我试图评估单个2D测试样本
的
MSE
损失
,在
Keras
中使用一个自动编码器(AE),一旦模型被训练,我很惊讶当我调用
Keras
内置
函数
来获取单个样本
的
丢失时,它会返回2D张量。这意味着
损失
函数
计算
每个样本
的
每个像素
损失
,而不是每个样本
计算
一个
损失
(?)。为了非常清楚,我期望
MSE
将所有像素上
计算
的</em
浏览 0
提问于2019-08-19
得票数 3
回答已采纳
1
回答
均方误差
损失
函数
计算
、
、
、
我使用形状为30,26
的
输入样本和形状为1,7
的
输出样本,以均方误差作为
损失
函数
(model.compile(loss="
mse
", optimizer="adam")来训练seq2seq网络。然而,当我比较history.history['loss']和
keras
_error = tf.
keras
.losses.
MSE
(predictions_train, data_train) (返回一个
浏览 16
提问于2020-07-29
得票数 0
1
回答
用于重放学习
的
train_on_batch自定义丢失fnc
、
、
、
、
我
的
损失
fnc看起来是:如您所见,
损失
是两个
mse
的
加权和,分别为新样本和重放样本
计算
。,这意味着每当我想训练一个批时,我想分离新
的
和重放数据点,并
计算
整个批
的
标量
损失
。 如何在<
浏览 7
提问于2021-01-04
得票数 0
1
回答
如何通过过滤自定义tensorflow
损失
函数
?
、
、
、
我知道我们可以像下面的方法一样创建自定义
损失
函数
。custom_loss(y_true, y_pred): loss = tf.
keras
.losses.
MSE
(layers.Dense(1, activation="relu")) model.compile(loss='
mse
', optimizer= opt,
浏览 3
提问于2020-10-19
得票数 1
回答已采纳
1
回答
Keras
的
损失
在模型之间存在数量级
的
差异,这意味着什么?
、
、
、
对于上下文,我在
Keras
中训练了两个独立
的
自动编码器:一个具有标准
的
MSE
损失
函数
,另一个具有自定义
的
MSE
损失
函数
。当在训练中
的
给定时间点评估这两个模型时,它们具有非常相似的性能,但
损失
却非常不同。 我
的
性能指标是平均百分比误差。这两个模型都在重建原始图像,平均误差在3%左右。然而,当这些模型被保存时,标准
Keras
MSE
浏览 31
提问于2020-04-24
得票数 0
回答已采纳
1
回答
在TensorFlow中完成训练过程后使用predict()方法
、
、
、
、
当我
的
损失
低于某个值时,我使用回调来停止训练。一旦训练结束,我在训练输入上调用predict()方法,然而,当我手动
计算
损失
函数
时,我得到了一个非常糟糕
的
结果。使用predict()是错误
的
吗?loss='
mse
',optimizer = tf.
keras
.optimizers.Adam(learning_rate=0.001)) model.fit(x, y, epochs=1000, batch_siz
浏览 0
提问于2021-10-25
得票数 2
1
回答
无法将“auto”转换为d型浮点数
的
EagerTensor
、
、
我创建了一个包含27列
的
dataset。我创建了一个用于异常检测
的
Autoencoder,如下所示:x = layers.Dense(20,activation='relu')(x) AE =
keras
.models.Model(inputs=i
浏览 2
提问于2020-11-14
得票数 3
1
回答
自定义
Keras
损失
函数
抛出'ValueError None‘
、
此自定义
Keras
损失
函数
: rel = predicted / safeActual return errCounts 在对fit()
的
调用中引发以下异常是什么导致x成为rmsProp优化器调用
浏览 0
提问于2017-11-22
得票数 1
1
回答
如何在
Keras
DQN中实现梯度上升
、
、
、
、
我已经建立了一个强化学习DQN,将可变长度
的
序列作为输入,并
计算
出行动
的
积极和消极奖励。我在
Keras
中
的
DQN模型存在一些问题,这意味着尽管该模型运行,但在epsilon
的
单个和多个周期中,平均回报会随着时间
的
推移而减少。即使经过长时间
的
训练,这一点也不会改变。 ? ? 我
的
想法是,这是由于在
Keras
中使用MeanSquareError作为
损失
函数
(最小化误差)。所以
浏览 47
提问于2020-11-23
得票数 0
回答已采纳
1
回答
为什么
来自
Keras
的
MSE
与我
计算
的
不一样
?
、
keras
.layers import Input, Dense, Activationfrom
keras
import backendfrom
Keras
: ',hist.history['val_loss'][-1])print('Calculated
MSE
: ', np.mean((y_pred-x_test)**2)) 产
浏览 0
提问于2019-09-26
得票数 1
回答已采纳
2
回答
在tensorflow/
keras
中,
为什么
train_on_batch输出
损失
在使用predict_on_batch重新
计算
后会有所不同?
、
、
、
、
我使用
keras
创建了一个模型,并使用train_on_batch对其进行了培训。为了检查模型是否做了它应该做
的
事情,我使用predict_on_batch方法重新
计算
了训练阶段前后
的
损失
。但是,正如你在阅读标题时所猜测
的
那样,我没有相同
的
输出
损失
。下面是一个基本代码来说明我
的
问题:from tensorflow.
浏览 4
提问于2020-04-26
得票数 2
回答已采纳
1
回答
keras
自定义丢失纯python (没有
keras
后端)
、
、
、
我想使用用纯python编写
的
自定义丢失
函数
,即不使用
keras
后端
函数
。这有可能吗?如果可能的话,怎么做?如果可能的话,我将非常感谢一个最低限度
的
工作例子(MWE)。请查看这个MWE,特别是
mse
_
keras
函数
:import numpy as np后端
的
自定义丢失
函数
的
MWE。我想
浏览 0
提问于2018-06-24
得票数 2
回答已采纳
1
回答
当数据长度>批处理大小时,tf.
keras
mean_squared_error奇怪返回
、
、
、
、
MSE
作为序列模型中
的
损失
函数
,在数据长度>批量大小时不能正常工作。 让我们从数据长度< 32开始。在这种情况下,它工作得很好,接下来我们将对数据中
的
另外3个值执行相同
的
操作。首先我们得到我们
的
数据,然后我们
计算
MSE
,然后我们用
损失
函数
=
MSE
运行简单序列模型
的
一个时期。我们将在这里看到
损失
函数
return是正确
浏览 28
提问于2020-06-15
得票数 0
1
回答
三维时间序列输出
的
keras
均方误差
损失
函数
、
、
、
我想验证一下我
的
损失
函数
,因为我读到过
keras
中
的
mse
损失
函数
存在问题。考虑
keras
中
的
lstm模型,将3d时间序列预测为多目标(y1,y2,y3)。假设一批输出序列
的
形状是(10,31,1),下面的
损失
函数
是否会取预测输出和真实输出之间
的
平方差,然后取310个样本
的
平均值,从而产生单个
损失
值?def <
浏览 0
提问于2019-03-03
得票数 2
8
回答
为什么
在有角度数据
的
情况下,误差不等于平方?
、
、
、
.其余
的
特征都是角度数据。= Sequential() model.add(tf.
keras
.layers.Dense(n_hidden_1, activation='relu')) model.add(tf.
keras
.layers.Dense(n_hidden_2, activation='relu'))model.add(
浏览 23
提问于2022-02-19
得票数 2
回答已采纳
1
回答
损失
:为共享单车构建模型时出现nan
、
、
、
、
我是机器学习
的
新手,如果提问方式不是很好,问题又这么简单,请多包涵。model = tf.
keras
.models.Sequential((input_shape = (13,))) ## Add desnse layer for predition --
Keras
declares we
浏览 39
提问于2019-03-03
得票数 1
回答已采纳
2
回答
精度与
MSE
相结合
、
似乎给出了一个“
mse
”
的
例子。我在一个回归示例上测试了这一点,并确实找到了与
损失
进度相对应
的
准确性值。我发现许多消息来源宣称,如果与
MSE
结合使用,准确性是无用
的
。在这种情况下,有人能解释什么是
keras
/TF
计算
吗?它能被视为有用吗?model.compile(optimizer='sgd', metr
浏览 13
提问于2022-03-08
得票数 1
1
回答
如何在
keras
中实现论文“基于深度生成模型
的
语义图像修复”
的
损失
函数
然后,我从celebA训练数据集中挑选一幅图像,比方说yTrue,现在我希望找到G可以生成
的
最接近yTrue
的
图像,比方说yPred。因此G
的
输出
损失
是||yTrue - yPred||_2^{2},我最小化了它w.r.t生成器输入(正态分布
的
潜变量)。下面是给出好结果
的
代码。现在
的
问题是,我还想在第一行添加先验
损失
( (1-D(G(Z),但是我不知道怎么做,因为D现在没有连接到G,如果我在第一行直接添加k.mean(k.log(1-D.(G.out
浏览 0
提问于2017-10-11
得票数 0
2
回答
Keras
中VDSR剩余损耗
的
计算
、
我正在使用后端tensorflow
的
Keras
。我从()下载了非常深
的
超分辨率cnn
的
代码,并尝试训练我自己
的
模型。该模型具有均方误差(
mse
),但原始模型存在残差
损失
。如何在
keras
中实现剩余
损失
。剩余
损失
可
计算
为 loss = (label - input_image - predected_image)^2
浏览 0
提问于2018-12-20
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
WPS用户的疑问,FILTER函数究竟怎么用?我们的为什么不一样?
训练深度学习神经网络的常用5个损失函数
机器学习中这5个回归损失函数,你都知道吗?
如何选择合适的损失函数,请看……
到底该如何选择损失函数?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券