腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(7226)
视频
沙龙
4
回答
如何
结合
tf.absolute
和
tf.square
在
Tensorflow
中
创建
Huber
损失
函数
?
、
、
准确地说,当绝对误差小于0.5时,
损失
函数
是平方误差,当绝对误差大于0.5时,
损失
函数
本身就是绝对误差。这样,误差
函数
的梯度不会超过1,因为一旦平方误差
函数
的梯度达到1,绝对误差
函数
就会生效,并且梯度保持
在
1不变。由于某些原因,它给我带来的性能比平方误差更差。= tf.to_float(tf.mul(fn_choice_maker1, fn_choice_maker2)) sqr_contrib = tf.mul(choice_maker_sqr
浏览 5
提问于2016-08-24
得票数 6
2
回答
低估
和
高估的不同成本
、
、
、
、
我有一个回归问题,但成本
函数
是不同的:低估的成本高于高估的成本。例如,如果预测值<TRUE值,则成本为3*( true -预测)^2;如果预测值>TRUE值,则成本为1*( true -预测)^2。我应该做哪些修改来调整这个成本
函数
?有什么推荐的读物吗?
浏览 1
提问于2017-06-28
得票数 2
4
回答
在
Keras中使用
Tensorflow
Huber
loss
、
、
、
我正在尝试
在
keras模型中使用
huber
loss (编写DQN),但我得到了不好的结果,我认为我做错了什么。我的is代码如下。input_dim=state_dim))loss = tf.losses.
huber
_loss
浏览 360
提问于2017-12-16
得票数 14
回答已采纳
1
回答
在
Tensorflow
中
求解约束优化问题
、
、
我正在尝试解决
Tensorflow
中
的约束优化问题。我想在我的
损失
函数
中
添加theta_r <= min(theta_tf),theta_s >= max(theta_tf),n > 1
和
Ks > 0的条件。你知道
如何
在我的
损失
函数
中
添加这样的约束吗?下面是我的
损失
函数
的样子。self.loss = tf.reduce_mean(
tf.square
浏览 82
提问于2020-07-17
得票数 0
1
回答
Keras自定义目标
函数
中
的
Tensorflow
占位符
、
、
、
我需要为Keras实现一个自定义目标
函数
,其中我需要一个额外的
tensorflow
占位符用于计算。
在
tensorflow
中
,我有如下内容:cost1=
tf.square
(self.l2_norm(pre_cost1)) 其中input_mask_R是
tensorflow
占位符。对于Keras
损失
<em
浏览 1
提问于2017-04-29
得票数 0
1
回答
初学者-解决一个简单的凸优化
、
我是
Tensorflow
的初学者。我从“入门”页面中选取了一个适合行的例子,并对其进行了我认为几乎微不足道的修改,但它完全失败了。我什么都不了解。
在
修改后的版本
中
,数组b_data是两个已知高斯的
和
,具有未知的权重。试着解决那些重量问题。这是一个二次型问题,可以作为一个线性系统来解决。这就是问题所在:虽然问题是凸的(二次偶数),但
tensorflow
没有找到正确的答案。tf.reduce_sum(<e
浏览 0
提问于2016-03-01
得票数 2
1
回答
如何
用
TensorFlow
求
函数
的最小值
、
、
我试图
在
TensorFlow
中
实现优化算法的可视化。所以我从Beale的
函数
开始 全球最小值
在
Beale
函数
的一幅图是这样的 我想从f(x=3.0, y=4.0)开始
如何
用优化算法
在
TensorFlow
中
实现这一点?
tf.square
(tf.add(tf.subtract(2.25, x), tf.multiply(x,
tf.square
(y)))
浏览 2
提问于2017-07-22
得票数 5
回答已采纳
4
回答
张量流
中
的
损失
裁剪(关于DeepMind's DQN)
、
、
、
我正在尝试用Deepmind
在
张量流
中
实现DQN文件,并且
在
裁剪
损失
函数
时遇到了困难。以下是描述
损失
裁剪的自然文件的摘录: 我对这种情况的推理是,
在
(-inf,-1) U (
浏览 14
提问于2016-04-06
得票数 11
1
回答
在
推理过程
中
,
损失
层做了什么?在前向传播过程
中
要清楚
、
我有一个模型,它使用非常大量的操作来处理l2
损失
。这最终超过了mul
和
add操作的数量。我想知道是否有可能删除它们?如果不是,为什么
浏览 4
提问于2019-07-15
得票数 0
1
回答
带有附加输入数据的
tensorflow
自定义丢失
函数
、
、
、
、
我试图为顺序模型构建一个自定义
损失
函数
。在这个
损失
函数
中
,使用y_true
和
y_pred来计算一个误差。loss =
tf.square
(y_pred - y_true) +
tf.square
(y_pred - y_true) model = Sequential()input_scaled是同一个numpy数组,它也
在
model.fit中使用,所以我希望这两个自定义丢失
函数
会产生相同的输
浏览 5
提问于2020-02-21
得票数 1
1
回答
如何
规范化
tensorflow
变量的大小
我正在编写一段
tensorflow
代码,希望
在
每次更新后对变量向量进行标准化。(a - y))至
和
y = y / t
浏览 3
提问于2017-07-26
得票数 0
回答已采纳
2
回答
Python :
函数
调用低级
函数
的可选参数
、
,该
函数
可以是其中的任意一个,其中的向量
和
裁剪
在
参数
中
传递:每个
损失
函数
都有一个特殊的缺省裁剪值,因此我们可以称之为
huber
_loss(向量)或
huber
_loss(向量,2)。我希望
在
权重()中使裁剪参
浏览 5
提问于2016-04-28
得票数 1
回答已采纳
3
回答
如何
使用"mae“作为目标
函数
?
、
浏览 3
提问于2017-07-10
得票数 26
5
回答
如何
在
Tensorflow
中
编写自定义丢失
函数
?
我是
tensorflow
的新手。我想写我自己的自定义丢失
函数
。有关于这个的教程吗?例如,铰链丢失或sum_of_square_loss(虽然这已经
在
tf
中
)?我可以直接在python
中
这样做,或者我必须编写cpp代码吗?
浏览 10
提问于2016-01-19
得票数 45
回答已采纳
1
回答
访问
tensorflow
中
的占位符元素
、
我有一个带有MSE
损失
函数
的神经网络,其实现方式如下:def train_neural_network_batchoptimizer = tf.train.AdamOptimizer(learn_rate).minimize(cost) 我对神经网络
和
Python相当陌生,但我知道每次迭代都会将训练点的样本输入到神经网络
中</em
浏览 0
提问于2019-02-16
得票数 0
1
回答
tensorflow
后端实用程序的用途是什么?
、
为了
创建
自定义的丢失
函数
,我看到许多人使用了
tensorflow
的后端功能。 return tf.math.reduce_mean(
tf.square
0.15846486198115287, shape=(),
浏览 1
提问于2021-03-26
得票数 1
1
回答
如何
在不计算两次或不编写自定义循环的情况下,求出train_on_batch
中
损失
函数
中
的tf张量值?
、
我有一个模型,并且实现了一个定制的
损失
函数
,大致如下: global diff diff = labels - predictions
在
我运行train_on_batch之后
浏览 0
提问于2019-08-05
得票数 1
2
回答
反向传播
在
tensorflow
中
是
如何
工作的
在
tensorflow
中
,似乎整个反向传播算法是通过对某个成本
函数
运行一次优化器来执行的,该成本
函数
是一些MLP或CNN的输出。我不完全理解
tensorflow
如何
从成本中知道它确实是某个NN的输出?可以为任何模型定义成本
函数
。我该
如何
“告诉”它某个成本
函数
是从NN派生出来的?
浏览 0
提问于2017-05-27
得票数 15
回答已采纳
6
回答
Keras
中
的自定义
损失
函数
应该返回该批的单个
损失
值,还是返回培训批
中
每个样本的
损失
数组?
、
、
、
、
我正在学习
tensorflow
(2.3)
中
的keras。tf.math.reduce_mean(
tf.square
(y_true - y_pred)) 这个自定义丢失
函数
中
的reduce_mean
函数
将返回一个标量。这样定义
损失
函数
是正确的吗?据我所知,y_true
和
y_pred形状的第一个维度是批处理大小。我认为
损失
函数
应该返回每批样品的
损失
值。因此,
损失
<em
浏览 8
提问于2020-08-13
得票数 24
回答已采纳
1
回答
试图理解PyTorch SmoothL1Loss实现
、
、
我一直
在
尝试查看PyTorch
中
的所有
损失
函数
,并从零开始构建它们,以便更好地理解它们,我遇到了与我的娱乐有关的问题,或者是PyTorch的实现问题。loss(predictions, target)tensor(0.7603, grad_fn=<SmoothL1LossBackward>) 我不知道实现
中
的错误在哪里
在
深入研究smooth_l1_loss function模块
中
的_C模块(file:smooth_c
浏览 9
提问于2020-12-17
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
机器学习中这5个回归损失函数,你都知道吗?
TensorFlow线性回归与逻辑回归实战
Tensorflow教程-线性模型
TF新工具AutoGraph:将Python转换为TensorFlow图
如何选择合适的损失函数,请看……
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券