腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Roi
池
化
和
反向
传播
、
、
我已经在我的图中实现了
ROI
pooling。代码如下。######################################################## #########CONV layers before
ROI
pooling
和
ctc loss进行优化之前,该图有几个卷积层。值得关注的是
ROI
池
之前的卷积层是否在
反向
传播
中进行了优化。 根据discussion here的说法,
ROI
pooling layer
浏览 27
提问于2019-12-29
得票数 1
回答已采纳
1
回答
LSTM
反向
传播
,然后是最大/平均
池
化
、
、
最大/平均
池
是基于LSTM输出生成表示的方法。在这种情况下,
反向
传播
是如何发生的? 我理解在未完成
池
化
的情况下
反向
传播
是如何发生的。但我想知道在上述情况下是如何发生的。提前谢谢。
浏览 0
提问于2018-07-20
得票数 0
1
回答
麦克斯普尔
和
雷鲁的
反向
传播
、
为什么需要通过Why
池
和
relu进行
反向
传播
?
反向
传播
的目的是更新权值,而and
池
和
relu则只对输入执行简单的操作。他们没有真正的重量或过滤器。那么,为什么需要通过它们进行
反向
传播
呢?
浏览 0
提问于2018-08-11
得票数 1
1
回答
卷积神经网络(CNN)的
反向
传播
是如何工作的?
、
、
在下面的图层S2
和
C3之间,使用了5*5大小的内核。 Q1。那里使用了多少个内核?这些内核是否都与层S2中的每个特征映射相连接?Q3。如果我们想训练核,然后我们用随机值初始
化
,有什么方程可以用
反向
传播
的错误值来更新这些核值吗? Q4。在上面的图中,“输入”层
和
“C5”
浏览 2
提问于2016-03-22
得票数 0
1
回答
一种简单卷积神经网络的
反向
传播
、
、
在ReLU获得最大的2x2
池
池
后,这些
池
就会被平
化
,并连接到完全连接的层中。一旦通过完全连接层,输出被转换为Softmax概率。我已经通过网络进行了
传播
,现在正在执行
反向
传播
步骤。取交叉熵
和
softmax的导数,计算了全连通层的权值。 我感到困惑的是如何通过最大
池
预先形成
反向
传播
,然后最终在卷积层中找到权值的导数。
浏览 0
提问于2020-07-22
得票数 2
回答已采纳
1
回答
在Lenet-5 CNN中如何将误差从转换层
传播
到上一层
、
、
、
、
但我坚持如何将错误从conv层
传播
到上一层,例如,从C3层
传播
到S2层。有谁能帮帮我吗?
浏览 14
提问于2016-07-29
得票数 0
2
回答
Max
池
没有参数,因此不会影响
反向
传播
?
、
、
我理解最大
池
的概念,也理解
反向
传播
的概念。我不能理解的是,为什么它说最大
池
不影响
反向
传播
的过程?是因为max
池
“没有任何参数”吗?同样,这个语句- max
池
没有参数-对吗?为什么或者为什么不?
浏览 0
提问于2019-07-09
得票数 3
回答已采纳
1
回答
CNN如何应用
反向
传播
来更新其权重
和
偏差?
、
、
、
、
据我所知,有线电视网络的三个主要层是卷积层、ReLU层
和
池
层。我知道
反向
传播
使用偏导数。但我看不出CNN是如何使用它们的。
浏览 0
提问于2019-09-30
得票数 1
1
回答
将输入输入到中间层,然后在角点中进行
反向
传播
。
、
、
、
、
基本上,我希望将输入输入到keras模型中的某个中间层,并希望对完整图(包括中间层之前的层)进行
反向
传播
。从图中可以看到,该特性在视图
池
层中是最大的,然后将得到的向量传递给网络的其他部分。从论文中,他们进一步利用视图
池
特性进行了
反向
传播
。 为了实现这一点,我正在尝试一种简单的方法。在我的模型中不会有任何视图
池
层。这个
池
,我将采取多个视图的特性,然后取它的最大值离线。最后,聚合功能将传递给网络的其他部分。然而,我无法弄清楚如何通过直接将输入传递到中间层来
浏览 0
提问于2018-02-03
得票数 2
1
回答
CNN中
池
层(子采样层)的
反向
传播
、
、
、
、
我怀疑如何
反向
传播
池
层中的错误,因为当我计算导数时,只有一个元素4(例如,当使用2x2
池
内核时)会影响前馈的结果。
浏览 0
提问于2016-11-21
得票数 13
1
回答
CNN卷积层
和
池
层会否适得其反?
、
、
、
在前馈网络中,所有的权重层都会被
反向
传播
,但是在
反向
支撑步骤上的卷积神经网络会发生什么呢?仅仅是网络的前馈部分(在卷积
和
池
层之后)才会得到支持吗?这意味着卷积层是静态特征提取的一种形式。
浏览 0
提问于2019-07-30
得票数 2
回答已采纳
1
回答
如何在tensorflow中实现区域兴趣
池
层?
、
、
、
当涉及到来自功能图的
ROI
池
时,我被卡住了。我知道这里可以使用双线性采样,但它可能对端到端训练没有帮助。如何在tensorflow中实现此
ROI
池
化
层?
浏览 5
提问于2018-08-18
得票数 0
2
回答
Fast R-CNN中
ROI
层的用途是什么?
、
、
、
ROI
(感兴趣区域)层也被提及。 当区域提案根据最终的卷积层激活函数(在每个单元中)调整大小时,在数学上会发生什么?
浏览 1
提问于2017-04-16
得票数 27
回答已采纳
1
回答
带最大
池
的卷积神经网络
、
、
、
、
SoftmaxLayer,它基本上给出了网络的最大输出 # 'activation' is a numpy array of 3D activations from the convolutional codeshown here) 这是等价
浏览 0
提问于2016-06-28
得票数 8
回答已采纳
2
回答
快速R中的
反向
传播
、
、
、
我理解在选择性搜索后如何应用卷积层,在香草R-CNN中找到感兴趣的区域,因此在单个卷积网络中进行
反向
传播
或任何权值更新。在初始convNet
和
RPN之间。但是,权值只能在与地面真值比较之后才能更新。或者是在两个网络完全向前通过之后,一个
反向
传递被完成。在这种情况下,如何同时考虑两者?如果没有,这一比较是在哪里
和
如何进行的?任何指向任何资源的指针都将受到高度赞赏。
浏览 0
提问于2018-04-02
得票数 4
2
回答
卷积神经网络中的
反向
传播
、
、
、
考虑具有以下结构的卷积神经网络: 可以简单地通过过采样来计算 如何从的输出中
传播
错误 有大小(6x6),(我正
浏览 4
提问于2016-04-14
得票数 5
1
回答
快速RCNN -
ROI
投影
这是否意味着将输入图像上的建议投影到功能地图上以供
ROI
池
使用?投影是包围框的简单缩放吗?
浏览 1
提问于2016-12-02
得票数 9
1
回答
用错误分类数作为
反向
传播
的目标函数
、
、
在
反向
传播
中,被最小
化
的目标函数通常是输出
和
目标之间的平方误差之和。然而,在分类问题上,目标往往是尽量减少分类错误的总数。为什么总分类错误数不能直接用作
反向
传播
的目标函数?
浏览 5
提问于2015-01-05
得票数 0
回答已采纳
4
回答
反向
传播
和
前馈神经网络有什么区别?
、
、
、
反向
传播
和
前馈神经网络有什么区别? 除了流向之外,还有其他的区别吗?假设我正在实现
反向
传播
,即它包含正向
和
反向
流。那么,
反向
传播
是否足以显示前馈?
浏览 10
提问于2015-02-09
得票数 42
回答已采纳
1
回答
倒推误差对排样矩阵的影响
、
、
、
、
我了解神经网络的
反向
传播
算法,以及误差如何在层中向后
传播
。也就是说,我知道,给定一个3层的前馈网络,改变W1的数量取决于第2层
和
第3层的权重,以及它们激活函数的导数。问:当您的第一层是嵌入层(即,考虑使用手套初始
化
嵌入矩阵),网络如何使用
反向
传播
更新该矩阵?如何将该层表示为一个由输入
和
一些权重矩阵组成的方程?
浏览 0
提问于2018-06-12
得票数 3
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
神经网络详解,正向传播和反向传播
机器学习——神经网络代价函数、反向传播、梯度检验、随机初始化
神经网络和深度学习(四)——浅层神经网络的激活函数与反向传播
深度网络现代实践 - 深度前馈网络之反向传播和其他的微分算法篇-续
中科院自动化所登Science子刊:自组织反向传播提升网络学习效率
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券