腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(810)
视频
沙龙
2
回答
正向
传播
v.s.
正向
传递
、
我看到一些论文说向前通过,另一些论文说向前
传播
。 这两个词的意思是一样的吗?
浏览 14
提问于2017-07-11
得票数 4
1
回答
Tensorflow中的LSTM反向
传播
、
在扇区截断反向
传播
的PTB google官方教程中,有一个使用BasicLSTMCell的实现,它通过创建一个for循环来展开num_steps步骤的图形。feed_dict={input_layer: input_v, correct_output: output_v}) 第二个实现是如何通过时间实现反向
传播
的
浏览 14
提问于2016-07-29
得票数 1
回答已采纳
2
回答
矢量
正向
传播
、
、
、
我从头到尾做了一个神经网络,想让它运行得更快一点。我在想,把我的前道具矢量化是否会让它更快。我目前的前向道具代码是: for i in range (self.dimensions[1]): for i in range (self.dimensions[2]): self.
浏览 2
提问于2020-08-10
得票数 1
回答已采纳
3
回答
反向
传播
和反模式自差有什么区别?
、
、
、
通过这个,我熟悉以下内容: 反向
传播
与反向模式自定义有何不同?
浏览 3
提问于2018-04-19
得票数 15
回答已采纳
2
回答
反向
传播
与反向模式自定义有何不同?
、
、
、
通过这个书,我熟悉以下内容:反向
传播
与反向模式自定义有何不同?
浏览 0
提问于2018-04-19
得票数 0
回答已采纳
1
回答
在激活函数的反向
传播
过程中,我们为什么要用梯度而不是除法来乘δ?
、
、
、
、
在激活函数的反向
传播
过程中,为什么要用delta而不是gradient来代替division?例如,众所周知:使用slope=0.1:重新激活所以: 向后
传播
(反向
传播
):if(x > 0) gradient = 1; else gradient = 0.1;,然后是new_delta = delta * gradient --这是与
正向
浏览 3
提问于2019-06-24
得票数 1
4
回答
反向
传播
和前馈神经网络有什么区别?
、
、
、
反向
传播
和前馈神经网络有什么区别? 除了流向之外,还有其他的区别吗?假设我正在实现反向
传播
,即它包含
正向
和反向流。那么,反向
传播
是否足以显示前馈?
浏览 10
提问于2015-02-09
得票数 42
回答已采纳
1
回答
前馈神经网络(ANN)和递归神经网络(RNN)有什么区别?
、
在人工神经网络中,
正向
传播
的方程是Y = W.X + b。ANN和RNN在反向
传播
方面的区别是什么?
浏览 9
提问于2020-05-09
得票数 0
回答已采纳
1
回答
使用gradient_override_map实现简单的自定义渐变
、
我想使用一个为正常的密集层创建权重的函数,它的行为基本上类似于初始化函数,只是它在每次新的前向
传递
之前都会进行“初始化”。幸运的是,它也没有任何我想要学习的参数,所以我只是尝试向前和向后
传递
,就像我永远不会替换W一样。现在我需要告诉自动微分不要通过g()反向
传播
。它的工作原理如下:W_new = W + tf.stop_gradient(g(x,W) - W)正如这里所建议的: 现在
正向
传球似乎还可以我假设在给定模型的第一次
正
浏览 0
提问于2016-10-05
得票数 0
1
回答
Tensorflow:更改影响反向
传播
的激活
、
在Tensorflow中有没有一种方法可以在反向
传播
期间将隐藏的节点激活更改为不同的值?也就是说,假设层中的一个节点在前向
传播
期间输出值'a1‘。然后在反向
传播
期间,当梯度更新到达该节点时,我希望它使用一个不同的值作为激活(例如'a2'),以便整个反向
传播
过程将发生,就像它在
正向
传播
期间的'a2‘一样。
浏览 0
提问于2019-03-29
得票数 1
1
回答
前向检查和约束
传播
我想通过约束
传播
来实现n皇后问题way.What在n皇后问题中,前向检查和约束
传播
有什么不同?
浏览 0
提问于2011-04-11
得票数 1
1
回答
tensorflow中的自定义图层
、
、
我想在
正向
和反向
传播
步骤中做一些改变。在Tensorflow Implementation中,我只能找到向前传球,而不能找到向后传球。我想修改向前和向后的传球。
浏览 27
提问于2019-03-04
得票数 0
2
回答
在NativeScript ios抽头事件中停止事件
传播
、
但在ios中,事件
正向
上
传播
到该父节点。如何停止事件
传播
(如event.stopPropagation() in javascript)。
浏览 2
提问于2017-09-25
得票数 5
1
回答
如何在更改输入后重新计算梯度?Pytorch
、
我试图在不重新定义a= f(x,y)的情况下做这样的事情:find gradient of a with respect to xfind gradient of a with respect to x我尝试了下面的部分示例,但它只是给了我一个错误。有人知道我如何做到这一点而不需要每次都重新定义原始函数吗?>>> y = 10*x**2 >
浏览 0
提问于2021-04-29
得票数 1
2
回答
Facenet与单幅图像
正向
传播
、
、
、
、
我在网上看不到任何关于前向
传播
的明确内容,除了他们将整个数据集用于他们的模型之外。 我的项目的想法是识别人脸并比较它们的输出向量,因为Facenet的最后一层是面部嵌入的128维数组。人们在线只是在
传播
数据集,但为了我自己的实践,我想直接取一张脸并查看其输出,但我不知道如何做到这一点。
浏览 26
提问于2019-11-22
得票数 0
1
回答
我的神经网络只能预测一个类别
、
我创建了一个NeuralNetwork类,如下所示import matplotlib.pyplot as plt self.alpha = alpha self.n = {} self.b = {} for l in range(1,
浏览 1
提问于2020-11-19
得票数 0
回答已采纳
1
回答
BRNN实现问题
、
、
、
、
让我们假设我们已经实现了具有给定数量的隐藏单元的RNN单元,在这种情况下,BRNN的
正向
传递
将是下一个(伪代码): hiddden_statereversed_input) return output 但是我不知道如何实现反向
传递
我从具有
正向
传递
输出形状的下一层得到导数误差dA (dA= (hidden_units
浏览 2
提问于2018-04-29
得票数 0
1
回答
双向Dijkstra(或均匀代价搜索)算法的停止准则
、
、
、
Dijkstra搜索(只有一个开始和结束状态)的停止标准如下 从变量µ= infinity Start search from Start (s)和and (t)开始,当两者在节点w处相交时(我们当前从
正向
搜索中查看的节点处于反向搜索中但是
正向
传递
从a开始,同时查看b (10)和c (7),反向
传递
从b开始,查看a (10)和c (6)。由于c是开销最低的节点,因此
正向
传递
会查看c,但由于c不在已查看的反向节点中,因此会将其存储并转移到反向
传递
。反向
传递</em
浏览 4
提问于2017-02-03
得票数 4
回答已采纳
1
回答
强迫神经网络只生成正值
、
与其转换输入数据或剪辑最终预测,我希望在
正向
和反向
传播
过程中,强制我的神经网络只生成正值(或高于给定阈值的值)。我相信我理解在前向
传播
过程中需要做什么--我需要将负值设置为0,但我不理解的是这是如何影响反向
传播
步骤的,以及我必须做些什么来确保我
传播
“负值剪切的导数”,如果这样的事情需要发生,甚至是有意义的。任何建议都将不胜感激,我已经在下面添加了一些前向
传播
代码和反向
传播
代码,并提供了我认为需要进行的前向支持更新。如果有任何更新要转发,我如何确保y_hat始终是正的,并
浏览 0
提问于2021-07-21
得票数 2
0
回答
keras中的lstm模型怎么分time-step输入?
、
、
、
、
大家好,我有个训练好了的lstm模型(Keras),进行
正向
传播
的时候都是构建一个(n_samples, time_steps,feature_dims)的数据矩阵进行predict,但是现在我的每个time_step
浏览 1029
提问于2019-06-29
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
神经网络详解,正向传播和反向传播
深度神经网络的正向传播与反向传播
深度学习之RNN、LSTM及正向反向传播原理
从纠正误解到构建信任:驱动品牌正向传播
正向代理与反向代理
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券