腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
反向模式AD与
前
向
模式AD功能相同吗?
julia
、
automatic-differentiation
正模AD通常与神经网络的
前
向
传递相比较,反向模式AD与反向
传播
相比较,显然不能用
前
向
传递代替反向
传播
。正反模AD都计算梯度。但是,它们是相同的功能呢,还是忽略了效率,反向模式做的事情与
前
向
模式不同呢?另外,是否有应用程序使用反向模式,而忽略了效率,而不能使用
前
向
模式?澄清: 让
前
向
算法
是指取dx并计算df(x)的
算法
,反向
算法
是
浏览 5
提问于2022-02-23
得票数 4
2
回答
反向
传播
与反向模式自定义有何不同?
machine-learning
、
deep-learning
、
tensorflow
、
backpropagation
通过这个书,我熟悉以下内容:反向
传播
与反向模式自定义有何不同?
浏览 0
提问于2018-04-19
得票数 0
回答已采纳
1
回答
如何计算机器学习和深度学习模型的大O时间复杂度?还有其他措施来定义模型的复杂性吗?
machine-learning
、
deep-learning
、
time-complexity
、
computer-science
是否可以像在其他
算法
/程序中那样使用大O复杂度度量? 我有建议,根据内存使用情况或培训时间来度量复杂性。然而,这些都不是理论上的措施,可能会因机器而异。我使用的一种方法是简单地比较可训练参数的总数。
浏览 6
提问于2020-03-21
得票数 0
3
回答
反向
传播
和反模式自差有什么区别?
tensorflow
、
machine-learning
、
deep-learning
、
backpropagation
通过这个,我熟悉以下内容: 反向
传播
与反向模式自定义有何不同?
浏览 3
提问于2018-04-19
得票数 15
回答已采纳
1
回答
基于图神经网络的列车测试分路工作原理
training
、
graph-neural-network
、
inference
因此,在此期间,将使用训练期间计算的权重和测试节点的邻域信息来执行GraphSage的
前
向
传播
。我的疑问是:在测试中,我感到困惑的部分是,在测试过程中,
算法
是只考虑绿色节点(测试集),还是在前
向
传播
步骤中考虑蓝色节点的信息(因为它是连通的,如图中所示)来计算节点嵌入?下面是纸中提到的图形的
前
向
传播
算法
。 这可能是一个愚蠢的问题,但由于我是新手,所以在火车和测试期间,我很难理解邻里的定义。如果我说错了任何一点,
浏览 0
提问于2021-08-04
得票数 1
回答已采纳
2
回答
正向
传播
v.s.正向传递
machine-learning
、
neural-network
我看到一些论文说向前通过,另一些论文说向前
传播
。 这两个词的意思是一样的吗?
浏览 14
提问于2017-07-11
得票数 4
1
回答
神经网络-更新权重矩阵-反向
传播
算法
machine-learning
、
neural-network
我正在安德鲁·吴恩达教授或的帮助下实现神经网络,使用图31
算法
。Q1。
浏览 0
提问于2013-02-07
得票数 1
回答已采纳
4
回答
反向
传播
和
前
馈神经网络有什么区别?
machine-learning
、
neural-network
、
classification
、
backpropagation
反向
传播
和
前
馈神经网络有什么区别? 除了流向之外,还有其他的区别吗?假设我正在实现反向
传播
,即它包含正向和反向流。那么,反向
传播
是否足以显示
前
馈?
浏览 10
提问于2015-02-09
得票数 42
回答已采纳
1
回答
matlab中时滞神经网络的反向
传播
算法
algorithm
、
matlab
、
neural-network
我在matlab中使用了一个时滞神经网络,我想用不同的训练
算法
来训练它。我使用了很多这样的
算法
,例如粒子群优化
算法
、levenberg marquardt
算法
、拟牛顿
算法
和.现在我想使用反向
传播
,但是我不能使用训练函数,因为时滞神经网络的反向
传播
不同于
前
馈贝塔。有谁能告诉我,在matlab中是否有任何功能用于训练具有反向
传播
的TDNN? 谢谢
浏览 0
提问于2014-02-10
得票数 1
1
回答
神经网络优化阶次
neural-network
、
deep-learning
、
gradient-descent
、
mini-batch-gradient-descent
我有一个关于优化谈判的非常基本的问题,当我调整神经网络中的权重和偏差时,我应该:
前
向
传播
和反向
传播
,计算梯度下降(DC)一批的iterations_number次数,然后继续下一批。
浏览 0
提问于2021-01-16
得票数 0
回答已采纳
1
回答
LSTM损耗函数与反向
传播
lstm
、
rnn
、
training
、
backpropagation
我试图理解损失函数和反向
传播
之间的联系。据我所知,在LSTM
算法
中,反向
传播
被用来获取和更新矩阵,在前
向
传播
中使用偏差来获取当前的单元和隐藏状态。损失函数取训练集的预测输出和实际输出。
浏览 0
提问于2019-08-31
得票数 0
2
回答
历代Vs通过Vs迭代
python
、
machine-learning
、
deep-learning
、
neural-network
、
epoch
在神经网络中,时代这个词是什么意思。它与pass和迭代有何不同?
浏览 0
提问于2017-10-07
得票数 3
回答已采纳
2
回答
反向
传播
中的梯度检验
neural-network
、
backpropagation
我试图实现一个简单的
前
馈神经网络的梯度检查,它包含两个单位输入层,两个单位隐层和一个单位输出层。我要做的是: 利用两种
前
馈
传播
的结果计算数值梯度。我不明白的是如何准确地执行反向
传播
。通常,我将网络的输出与目标数据进行比较(在分类的情况下),然后在网络中反向
传播
误差导数。但是,我认为在这种情况下,还有一些值必须反
传播</
浏览 6
提问于2014-10-04
得票数 6
回答已采纳
1
回答
前
向
检查和约束
传播
algorithm
我想通过约束
传播
来实现n皇后问题way.What在n皇后问题中,
前
向
检查和约束
传播
有什么不同?
浏览 0
提问于2011-04-11
得票数 1
1
回答
LSTM NN:
前
向
传播
neural-network
、
time-series
、
lstm
、
recurrent-neural-network
我有
前
向
传播
working...but,我有几个关于
前
向
传播
中的移动部分的问题,在经过训练的模型、反向
传播
和内存管理的上下文中。因此,现在,当我运行前
向
传播
时,我将新列( f_t, i_t, C_t, h_t, etc )堆叠在它们相应的数组上,因为我积累了以前用于bptt梯度计算的位置。我的问题是第四部分: 1) 为了保留合理的长期记忆,我需要向后
传播
多长时间?<code>e 218</
浏览 3
提问于2016-01-05
得票数 1
回答已采纳
1
回答
在TensorFlow中,单次权重更新需要两次
前
馈
传播
?
tensorflow
在TensorFlow中,我们似乎必须将输入
传播
到顶层一次,以计算当前的训练误差,并
传播
另一次来进行参数更新。train_accuracy = accuracy.eval(feed_dict={用于计算精度,这需要一个
前
馈过程我认为这一过程也需要
前
馈
传播
首先获得网络输出,以便可以计算后向
传播
算法
的均方误差。 我们真的需要遍历整个网络两次才能得到当前的训练误差并更新参数吗?
浏览 0
提问于2015-11-23
得票数 0
1
回答
FeedForward神经网络的训练
neural-network
、
backpropagation
、
feed-forward
我已经实现了一个反向
传播
神经网络,现在我想实现一个
前
馈神经网络来比较它们的准确性。 我的问题是,Forward有哪些学习方法(除了反向
传播
),因为每一篇文章都提到反向
传播
作为学习方法。
浏览 3
提问于2015-03-31
得票数 1
回答已采纳
1
回答
深入学习研究中的提亚诺
machine-learning
、
python
、
deep-learning
、
library
Theano是学习机器学习
算法
实现的良好开端吗?我对
前
馈和递归网络、反向
传播
、机器学习问题的一般流水线和必要的数学都有一个合理的想法。
浏览 0
提问于2015-05-30
得票数 9
1
回答
为什么反向支持
算法
要将输入存储到隐藏层的非线性中?
deep-learning
、
neural-network
、
theory
我一直在读伊恩·古德费罗的“深度学习书”,其中第6.5.7节提到 我理解Back螺旋桨以类似于动态规划的方式存储渐变,所以不会重新计算它们。
浏览 3
提问于2022-03-23
得票数 2
回答已采纳
1
回答
向
反向
传播
算法
添加动量
neural-network
为了加快学习过程,将动量项添加到权重更新规则中。这里,
浏览 6
提问于2011-05-03
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
深度学习之DNN与前向传播算法
卷积神经网络的前向传播算法详解
深度神经网络之前向传播算法
如何计算浅层神经网络的前向传播
跟我学神经网络1-前向传播
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券