腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6980)
视频
沙龙
3
回答
CNN前馈或
反向
传播
模型
、
、
、
卷积
神经网络
(CNN)是前馈模型还是
反向
传播
模型。通过比较
的
博客和维基百科对CNN
的
定义,我得到了这种困惑。
浏览 0
提问于2017-03-14
得票数 3
4
回答
反向
传播
是否应用于
卷积
神经网络
?
、
卷积
神经网络
使用
反向
传播
算法吗?我不明白在完全连接
的
层中到底发生了什么?
浏览 0
提问于2019-06-12
得票数 1
1
回答
CNN
卷积
层和池层会否适得其反?
、
、
、
我在谷歌上找不到一个简单
的
答案,这让我觉得答案是否定
的
,但我想确定. 在前馈网络中,所有的权重层都会被
反向
传播
,但是在
反向
支撑步骤上
的
卷积
神经网络
会发生什么呢?仅仅是网络
的
前馈部分(在
卷积
和池层之后)才会得到支持吗?这意味着
卷积
层是静态特征提取
的
一种形式。
浏览 0
提问于2019-07-30
得票数 2
回答已采纳
0
回答
反
卷积
(
反向
卷积
)是什么意思?
、
、
、
卷积
神经网络
中
的
反
卷积
或
反向
卷积
是什么意思? 我理解
卷积
,如果我们考虑一个3x3
的
窗口W和一个相同大小
的
核k,那么
卷积
W*K
的
结果将是一个值。这里
的
k是一个3x3元素
的
矩阵。在我
的
理解中,反
卷积
试图对特征地图进行上采样,以获得更大
的
地图。它是否使用用于获得特征图
的
相同
卷积
矩阵
浏览 10
提问于2016-07-08
得票数 2
1
回答
卷积
中
的
反向
传播
、
、
、
我在理解
反向
传播
是如何在
卷积
层中工作时遇到了一些困难。实际上,在计算隐藏层中
的
误差后,我们可以在误差图像中表示它。但是在那之后,我如何更新内核呢?我在下图中给出了一个例子:我们有一个图像错误(l+1) (计算了
反向
传播
)连接到父对象
的
输出(l)和相关
的
内核K。 在位置(x,y),误差将是: err = e1.k'1+e2.k'2+...+e9.k'9 (k‘核
的
系数在(l+1)中)。所以,如果我们没有矩,
浏览 0
提问于2015-05-05
得票数 1
1
回答
如何计算
卷积
神经网络
中
的
偏差梯度?
、
、
、
、
我很难在网上找到关于如何在
卷积
神经网络
中使用偏差进行
反向
传播
的
资源。我所说
的
偏差是指通过
卷积
得到
的
每个数字相加
的
数字。Here is a picture further explaining 我知道如何计算滤波器权重
的
梯度,但我不确定如何处理偏差。现在,我只是根据该层
的
平均误差来调整它。这是正确
的
吗?
浏览 57
提问于2019-09-21
得票数 0
回答已采纳
1
回答
卷积
神经网络
的
反向
传播
、
、
、
、
我已经看过很多关于这个主题
的
文章,基于Jefkine
的
卷积
神经网络
的
反向
传播
似乎是最好
的
。尽管,正如作者所说,📷📷 我想出了如何用步幅、深度和更多
的
滤波器来
浏览 0
提问于2018-07-21
得票数 2
1
回答
卷积
神经网络
预训练
的
原因
、
、
通常
反向
传播
神经网络
存在着梯度消失
的
问题。我发现
卷积
神经网络
(CNN)有些如何摆脱这个消失
的
梯度问题(为什么?) 另外,在一些论文中,还讨论了CNN
的
一些预培训方法。有人能给我解释一下吗?
浏览 8
提问于2014-10-17
得票数 0
2
回答
卷积
神经网络
中特征映射
的
滤波器
、
、
、
、
在
卷积
神经网络
中,我应该使用什么样
的
滤波器来提取特征图?我最近读到了关于
卷积
神经网络
的
文章,我了解到我们使用(一组滤波器)在每个
卷积
层生成一组特征映射,通过对前一层输出
的
滤波器进行
卷积
,生成一组特征映射。谢谢。
浏览 1
提问于2015-12-05
得票数 0
回答已采纳
1
回答
Tensorflow -- tf.nn.conv2D()中
的
权重值是否发生了变化?
、
、
当我用tensorflow研究
神经网络
时,我遇到了一个关于tf.nn.conv2D(x,W,strides=1,1,1,1,填充=‘相同’)
的
问题。当我输入图像值x和加权值W(由tf.truncated_normal(shape,stddev=0.1)初始化)时,我知道它将返回一些值,这是tf.nn.conv2D()
的
结果。但是我
的
问题是,当调用tf.nn.conv2D()时,它会改变权重值吗? 如果它改变了权重
的
值,它是如何工作
的
?事实上,当我打印权重值时,它会发生变化。但我不知道为什
浏览 7
提问于2017-03-26
得票数 0
回答已采纳
1
回答
卷积
神经网络
中
的
滤波器是如何通过
反向
传播
训练
的
?
、
、
、
我正在尝试从头开始实现一个
卷积
神经网络
。问题是我不明白过滤器是如何在CNN中学习
的
。 我以前从头开始实现了一个前馈
神经网络
,我知道
反向
传播
是如何为它们工作
的
。我也了解CNN
的
基本架构。但是如何计算更新后
的
过滤器呢? 我不想使用像tensorflow这样
的
库,因为我想了解所有这些背后
的
概念。
浏览 20
提问于2019-05-06
得票数 1
1
回答
神经网络
:隐层计算误差
、
、
我是新
的
神经网络
,并试图建立一个超简单
的
神经网络
超过一个隐藏层。 在
神经网络
训练阶段调整权值时,权值
的
调整程度部分取决于该神经元对下一层神经元
的
“误差”程度。因此,我们需要知道下一层
的
错误。只需要一个隐藏层就可以计算出这一点,因为我们
的
训练数据已经为我们提供了预期
的
输出,所以我们只需要使用输出层(简单地说,目标输出)。当存在多个隐藏层时,计算误差就变得非常重要。也就是说,如果我们有10个隐藏层,而我们位于第5层,我们
浏览 5
提问于2017-04-22
得票数 5
回答已采纳
1
回答
如何扩展
神经网络
api以支持
卷积
神经网络
、
、
我使用
的
是机器学习应用程序接口,它使用平面实现来优化性能,它假设两层之间有一个完整
的
连接。 我想扩展它来支持
卷积
神经网络
,但我不知道如何更新api来支持它。我考虑过将输入
的
权重设置为零,但不确定这将如何影响
反向
传播
算法
浏览 5
提问于2013-08-18
得票数 2
1
回答
了解
卷积
神经网络
中
的
权重共享是什么
、
、
我目前正在尝试理解在
卷积
神经网络
中权重共享到底是什么。连接
卷积
图像和输出
的
权重是否是不共享
的
权重?如果不是,那么没有共享
的
权重是什么?或者,如果是
反向
传播
,则将其视为一个权重,并将其
浏览 1
提问于2017-05-09
得票数 1
1
回答
我能把
卷积
神经网络
看作是完全连通
的
神经网络
吗?
、
例如,有一个3乘3
的
图像,最后,输出维数为2x2x2。最后,我还可以得到8个输出。 我真的不知道CNN
的
反向
传播
,所以我试图从经典
的
完全连接
的
神经网络
中理解它。通过输入一幅小图像,就可以在完全连接<e
浏览 1
提问于2017-01-29
得票数 0
回答已采纳
1
回答
一种简单
卷积
神经网络
的
反向
传播
、
、
嗨,我正在做一个简单
的
卷积
神经网络
(图片附在下面)。输入映像为5x5,内核为2x2,它经历了一个ReLU激活函数。在ReLU获得最大
的
2x2池池后,这些池就会被平化,并连接到完全连接
的
层中。我已经通过网络进行了
传播
,现在正在执行
反向
传播
步骤。取交叉熵和softmax
的
导数,计算了全连通层
的
权值。 我感到困惑
的
是如何通过最大池预先形成
反向
传播
,然后最终在
卷积
浏览 0
提问于2020-07-22
得票数 2
回答已采纳
1
回答
CNN
的
反向
传播
训练
、
、
、
、
我以前在浅层(一层或两层)
神经网络
中工作,所以我对它们
的
工作原理有一定
的
了解,在训练过程中很容易直观地看到向前和向后传递
的
导子,目前我正在研究深层
神经网络
(更确切地说,是CNN),我读过很多关于它们
的
训练
的
文章,但我仍然无法理解CNN训练
的
总体情况,因为在某些情况下,使用预训练层的人使用自动编码提取
卷积
权,在某些情况下,随机权值被用于
卷积
,然后使用
反向
传播
来训练权重,有谁能帮我给出
浏览 4
提问于2016-07-11
得票数 2
1
回答
卷积
神经网络
中
的
反向
传播
及滤波器更新
、
、
、
、
我知道常规
的
神经网络
和像Gradient Descent和Back Propagation这样
的
概念,我也能理解CNN是如何直观地工作
的
。 我
的
问题是关于CNN
的
反向
传播
。它是如何发生
的
?最后一个完全连通
的
层是规则
神经网络
,这是没有问题
的
。但是我如何更新
卷积
层中
的
滤波器呢?如何将错误从完全连接
的
层
反向
传
浏览 1
提问于2018-05-13
得票数 0
回答已采纳
1
回答
在提亚诺实施辍学
、
、
、
、
我目前正在使用一个建立在Theano
的
卷积
神经网络
。丢包是一种正则化技术,其中节点输出以一定
的
概率被屏蔽,据我所知,掩码应该在正向和
反向
传播
中应用。由于我目前在Theano工作,
反向
传播
步骤被T.grad函数所代替,该函数使用自动微分来计算模型
的
梯度。在我在网上发现
的
几个例子中,它们只是在前向掩蔽值,在梯度计算步骤中根本不考虑辍学掩码。这会对网络产生什么样
的
影响,如果我想在梯度计算中包括掩码,我会怎
浏览 4
提问于2016-06-16
得票数 0
1
回答
用于假人
的
FaceNet
、
、
FaceNet算法(在文章中描述)使用
卷积
神经网络
来表示128个维欧氏空间中
的
图像。当我读到这篇文章时,我不明白: 2.2 .为什么我要用损失函数来确定负片 2.3 .我什么时候检查我
的
图像相对于锚
的
硬度-我相信这是在我发送一个三胞胎被网络
浏览 2
提问于2017-07-06
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
反向传播算法推导-卷积神经网络
手撕CNN系列三:卷积神经网络的反向传播
深度神经网络的正向传播与反向传播
神经网络详解,正向传播和反向传播
神经网络与反向传播算法
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券