腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
获得
关于
输入
和
改变
输入
(
而
不是
可
训练
变量
)
的
梯度
,
以
最小化
TF2
中
的
损失
?
、
、
、
我想使用一个经过
训练
的
模型来
改变
输入
,这样它就像Tensorflow 2.0
中
的
深度梦想一样将
损失
最小化
(
而
不是
改变
可
训练
变量
),但我没有成功。假设我有一个与文档
中
相同
的
基本神经网络 class MyModel(Model): super(MyModel, s
浏览 21
提问于2019-04-30
得票数 0
回答已采纳
1
回答
如何
计算
梯度
w.r.t。TensorFlow
的
急迫执行模式
中
的
一个非
变量
?
、
我试图计算我
的
模型
的
损失
相对于它
的
输入
的
梯度
,以便创建一个对抗性
的
例子。由于模型
的
输入
是不可
训练
的
,所以我需要计算
关于
张量
的
梯度
,
而
不是
变量
。但是,如果张量
不是
可
训练
变量
,则TensorFlow
的
浏览 1
提问于2018-11-19
得票数 0
回答已采纳
1
回答
如何
在Keras DQN
中
实现
梯度
上升
、
、
、
、
我已经建立了一个强化学习DQN,将可变长度
的
序列作为
输入
,并计算出行动
的
积极
和
消极奖励。我在Keras
中
的
DQN模型存在一些问题,这意味着尽管该模型运行,但在epsilon
的
单个
和
多个周期中,平均回报会随着时间
的
推移
而
减少。即使经过长时间
的
训练
,这一点也不会
改变
。 ? ? 我
的
想法是,这是由于在Keras中使用MeanSquareErr
浏览 47
提问于2020-11-23
得票数 0
回答已采纳
1
回答
如果没有设置tf.stop_gradient,会发生什么情况?
、
、
、
我正在阅读tensorflow模型
的
faster-rcnn代码。我对tf.stop_gradient
的
使用感到困惑。if self.我
的
问题是:如果tf.stop_gradient没有设置为proposal_boxes,会发生什么?
浏览 2
提问于2019-05-09
得票数 7
回答已采纳
2
回答
反向传播
如何
与反向自动分化相同(或不相同)?
、
、
、
、
有这样
的
主张: 更新:,自从写这篇文章以来,我发现这在“深度学习”6.5.9节中有介绍。见。我还发现,这篇论文对Haber
和
Ruthotto
的
“深度神经网络<em
浏览 4
提问于2014-05-06
得票数 14
回答已采纳
5
回答
有人能给我解释一下logistic回归中
的
代价函数
和
梯度
下降方程之间
的
区别吗?
我正在学习
关于
Logistic回归
的
ML课程,以及Manning
的
机器学习实践。我正在尝试通过用Python实现所有的东西来学习。这两者之间
的
区别是什么?
浏览 1
提问于2012-11-29
得票数 56
回答已采纳
1
回答
验证
损失
有时会达到峰值
、
、
我想要检测哪个是真正
的
图像,哪个是恶搞图像。我有+- 8000个数据集图像(组合)。所以我用LR = 1e-4 BS = 32 EPOCHS = 100
训练
了这个模型。这就是结果。有时,我
的
val
损失
是峰值,但在那之后它又回到列车
损失
线以下。我
的
模型怎么了?任何答案都将不胜感激。提前感谢! ?
浏览 31
提问于2020-04-18
得票数 0
回答已采纳
6
回答
是否可以为逻辑回归定义自己
的
成本函数?
、
、
在最小二乘模型
中
,成本函数被定义为预测值与实际值之差
的
平方,作为
输入
的
函数。当我们进行逻辑回归时,我们将成本函数更改为对数函数,
而
不是
将其定义为sigmoid函数(输出值)与实际输出之间
的
差值
的
平方。 是否可以更改
和
定义我们自己
的
成本函数来确定参数?
浏览 2
提问于2012-08-28
得票数 22
回答已采纳
1
回答
Tensorflow
如何
知道哪些
可
训练
变量
需要
最小化
?
如果要在应用之前处理
梯度
,请显式调用compute_gradients()
和
apply_gradients(),
而
不是
使用此函数。
损失
:包含要
最小化
的
值
的
张量。global_step:可选
变量
,在
变量
更新后增加1。var_list:要更新
的
变量
对象
的
可选列表或元组,
以
最大限度地减少
损失
。默认为在GraphKeys.
浏览 0
提问于2018-05-25
得票数 1
回答已采纳
2
回答
Tensorflow:依赖于评估
的
图形构建
、
、
我正在编写以下格式
的
tensorflow图: return some_operation(label.eval()) 这个模型
的
问题是,我需要输出
的
值,以便按照我想要
的
方式处理我
的
标签,这样我就可以计算
损失
。
浏览 22
提问于2016-07-26
得票数 0
回答已采纳
3
回答
什么是反向传播?
我有一个概念上
的
问题,因为术语困扰着我。反向传播算法是一种神经网络
训练
算法,还是仅仅是一种递归算法来计算神经网络
的
雅可比?那么这个Jacobian将作为主要
训练
算法
的
一部分,例如最陡峭
的
下降?因此,计算雅可比矩阵(神经网络输出到网络参数
的
偏导数)是一种
训练
算法还是一种数值方法?
浏览 0
提问于2021-09-08
得票数 4
回答已采纳
1
回答
梯度
下降-在
损失
函数中计算了多少值?
我有点搞不懂在神经网络
训练
中
损失
函数是
如何
计算
的
。有人说,在理论上,当使用网格搜索或蒙特卡罗方法时,我们可以计算所有可能
的
损失
函数值。但显然,这需要太多
的
资源,并
不是
神经网络
训练
的
好方法。或者,在使用
梯度
下降时,我们有可能评估单个值,
以
知道我们应该往哪个方向去测试下一个值。然后我们可以一步一步地爬下梯子,直到我们达到最优值。📷 但是另一方面,在下面的PyTorch
浏览 0
提问于2019-09-23
得票数 1
1
回答
获取给定优化器在Tensorflow中
最小化
的
损失
、
、
我正在为我
的
tensorflow工作区工作在一个单元测试系统
中
,我想知道是否有任何方法或属性,给出了一个带有优化器操作
的
图(在调用.minimize()之后),
以
获得
它正在优化
的
最终
损失
张量及其控制
的
变量
例如,如果我调用train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),我希望只检索只有访问train_op
的
cross_entropy我可以访
浏览 0
提问于2018-01-23
得票数 6
回答已采纳
1
回答
为什么优化器被使用在
不是
神经网络
的
东西上?
、
、
为什么优化器被使用在
不是
神经网络
的
东西上?在样式编码器(在潜在空间中查找图像)
中
,隐空间被更新,
而
不是
神经网络
的
权值。为什么它在这些情况下有效,因为更新
的
不是
神经网络
的
权重?
浏览 0
提问于2020-11-20
得票数 1
2
回答
梯度
下降
和
梯度
增强有什么区别?它们之间有任何相互依存
的
吗?
、
、
梯度
下降
和
梯度
增强有什么区别?它们在任何方面都相互依存吗?
浏览 0
提问于2019-10-09
得票数 7
1
回答
LLM“参数”与神经网络
中
的
“权重”是
如何
关联
的
?
、
、
、
我一直在阅读最新和最伟大
的
LLM是
如何
拥有数十亿个参数
的
。作为一个更熟悉标准神经网络,但试图更好地理解LLM的人,我很好奇LLM参数是否与NN
的
权重相同,即它基本上是一个从随机系数开始
的
数字,并且随着模型
的
学习
以
减少
损失
的
方式进行调整吗?如果是这样的话,为什么那么多在LLM空间中工作
的
研究将这些称为参数,
而
不是
仅仅调用它们
的
权重?
浏览 0
提问于2023-04-06
得票数 5
回答已采纳
1
回答
TensorFlow / PyTorch:外部测量
的
损耗
梯度
、
、
、
、
我对机器学习
和
Python比较陌生。 我有一个系统,它由一个神经网络组成,它
的
输出被
输入
到一个未知
的
非线性函数F
中
,例如一些硬件。其思想是将神经网络
训练
为未知非线性函数F
的
逆F^(-1),这意味着
损失
L是在F
的
输出处计算
的
,但是由于F
的
梯度
不知道,反传播不能直接用于计算
梯度
和
更新NN权值。在计算TensorFlow或PyTorch
中</e
浏览 2
提问于2020-01-16
得票数 1
1
回答
处理大于内存
的
数组
训练
python
中
的
神经网络
、
、
、
我正试图在python
中
训练
一个神经网络(backprop +
梯度
下降),我在google图书2克(英文)
的
基础上构建了它
的
功能,它最终将是大约10亿行数据,每行有20个功能。这将很容易超过我
的
内存,因此使用内存
中
的
数组(如numpy )将
不是
一个选项,因为它需要加载完整
的
训练
集。我研究了numpy
中
的
内存映射,它可以解决
输入
层
的</em
浏览 0
提问于2016-02-07
得票数 0
回答已采纳
2
回答
批次大小与
输入
层神经元数量
的
关系
、
、
关于
LSTM神经网络,我无法理解批次大小、
输入
层
中
的
神经元数量与
输入
中
的
“
变量
”或“列”数之间
的
关系。(假设有一种关系,尽管看到了相反
的
例子,我还是不明白为什么没有关系)让我们假设数据集包含三列
输入
和
一列输出。因此,它将类似于
输入
变量
1
输入
变量
浏览 0
提问于2018-08-08
得票数 5
1
回答
TensorFlow -
如何
最小化
一个
变量
的
函数?
、
、
另一位研究人员给我提供了一个完全
训练
的
模型,该模型将
输入
作为占位符。将其视为函数
损失
,我希望找到x来
最小化
我
的
距离度量(
损失
函数) dist(x, f(x))。这可能是两个点之间
的
欧几里德距离。我尝试使用TensorFlow
的
内置优化器函数。问题是tf.train.AdamOptimizer(1e-4).minimize(loss, var_list[input_placeholder])失败了,它抱怨input_placeholde
浏览 0
提问于2017-10-01
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对抗样本的基本原理
GAN:另一种损失函数
神经网络简介
换个角度看GAN:另一种损失函数
当机器拥有像人类一样的大脑,会怎么样?
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券