腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
错误
反向
传播
卡在
错误
的
值
中
、
、
、
我目前正在做一项任务,需要我制作一个f(x) = x(1-x)
的
神经网络。(L_RATE),并计划将11个数据(N)作为训练
的
输入。sigmoided‘
值
(包括一个偏差)和权重(V)相乘来计算第二个净值。,它并没有接近预期
的
数据,而是停留在一个特定
值
上。我看到许多其他人也遇到过这种问题,他们
的
解决方案是给初始权重赋予随机非零
值
,或者改变学习率或迭代次数。我已经这样做过很多次了,但它似乎与我
的
问题不匹配。
浏览 22
提问于2019-06-11
得票数 1
1
回答
乙状结肠功能在神经网络
中
的
位置重要吗?
、
、
我正试图使用带有自定义丢失
的
Keras在python
中
构建一个神经网络,并且我在徘徊,在最后一层
中
是否有作为激活函数
的
乙状结肠函数,而在自定义丢失开始时是否有一个sigmoid函数。我
的
意思是: 我有一种感觉,在第二个模型
中
,损失是计算出来
的
,但它不是通过乙状结肠
传播
的
,而在第一个模型
中
,它是。是那么回事吗?
浏览 0
提问于2017-02-21
得票数 2
回答已采纳
1
回答
卷积神经网络(CNN)
的
反向
传播
是如何工作
的
?
、
、
在下面的图层S2和C3之间,使用了5*5大小
的
内核。 Q1。那里使用了多少个内核?这些内核是否都与层S2
中
的
每个特征映射相连接?Q3。如果我们想训练核,然后我们用随机
值
初始化,有什么方程可以用
反向
传播
的</
浏览 2
提问于2016-03-22
得票数 0
1
回答
在神经网络
中
,偏差项
的
权重是否在
反向
传播
中
得到更新?
在神经网络
中
,我试着把它编码出来,但被
卡在
了一个部分上。偏差项
的
权重是否在
反向
传播
中
得到更新?我在这里遵循算法,,他们似乎没有更新它,他们选择了一些偏差项权重
的
任意
值
。这是否意味着偏差项
的
输出为1,其权重不应改变?
浏览 3
提问于2015-12-25
得票数 4
回答已采纳
1
回答
一种简单卷积神经网络
的
反向
传播
、
、
嗨,我正在做一个简单
的
卷积神经网络(图片附在下面)。输入映像为5x5,内核为2x2,它经历了一个ReLU激活函数。在ReLU获得最大
的
2x2池池后,这些池就会被平化,并连接到完全连接
的
层
中
。我已经通过网络进行了
传播
,现在正在执行
反向
传播
步骤。取交叉熵和softmax
的
导数,计算了全连通层
的
权
值
。 我感到困惑
的
是如何通过最大池预先形成
反向
传播
,然后最终在卷积层中找到
浏览 0
提问于2020-07-22
得票数 2
回答已采纳
1
回答
反向
传播
错误
、
、
、
我正在尝试从头开始实现
反向
传播
。虽然我
的
成本在降低,但梯度检查会产生一个0.767399376130221。self.params_l1 - self.lr * (de2 / n_examples) 它是一个简单
的
(我正在遵循后部支柱
的
链条规则。我怀疑问题可能出在我使用产品
的
顺序上,但我已经尝试了所有的方法,但仍然没有运气。
浏览 4
提问于2020-05-17
得票数 1
回答已采纳
1
回答
关于
反向
传播
算法
的
几个问题
、
、
、
我有几个关于
反向
传播
的
问题。我正在努力学习神经网络理论
的
基础知识,并希望从小到小开始,构建一个简单
的
异或分类器。我读过很多文章,还浏览过多本教科书--但我似乎不能教这件事--异或模式。首先,我不清楚
反向
传播
的
学习模式。这里有一些伪代码来表示我是如何训练网络
的
。让我们假设我
的
网络设置正确(即:多个输入连接到一个隐藏层,连接到一个输出层,所有连接都正确地连接起来)。我意识到这可能是不够
的
,我将很高兴地阐
浏览 4
提问于2012-09-24
得票数 2
1
回答
为什么使用retain_graph=True不会导致
错误
?
、
、
、
如果我需要通过神经网络
反向
传播
两次,并且我没有使用retain_graph=True,我会得到一个
错误
。 为什么?我意识到保持用于第一个
反向
传播
的
中间变量在第二个
反向
传播
中
重用是很好
的
。然而,为什么不简单地重新计算它们,就像最初在第一次
反向
传播
中计算它们一样?
浏览 0
提问于2019-08-11
得票数 0
1
回答
CNN
的
反向
传播
训练
、
、
、
、
我以前在浅层(一层或两层)神经网络
中
工作,所以我对它们
的
工作原理有一定
的
了解,在训练过程
中
很容易直观地看到向前和向后传递
的
导子,目前我正在研究深层神经网络(更确切地说,是CNN),我读过很多关于它们
的
训练
的
文章,但我仍然无法理解CNN训练
的
总体情况,因为在某些情况下,使用预训练层的人使用自动编码提取卷积权,在某些情况下,随机权
值
被用于卷积,然后使用
反向
传播
来训练权重,有谁能帮我给出从输入到全连接层(
浏览 4
提问于2016-07-11
得票数 2
1
回答
神经网络梯度体面训练
中
的
符号(a和z)和
反向
传播
方程
的
使用混淆
、
我正在编写一个神经网络,但是我很难用
反向
传播
来训练它,所以我怀疑我
的
代码中有
错误
/数学
错误
。我花了很多时间阅读关于
反向
传播
方程
的
不同文献,但是我对它感到有点困惑,因为不同
的
书表达了不同
的
东西,或者至少使用了非常混乱和矛盾
的
符号。我调用到达节点z和相同
值
的
加权和,但在它传递节点
的
激活函数之后是。 显然,我不允许将图像嵌入到我所关心
浏览 2
提问于2016-10-29
得票数 1
回答已采纳
1
回答
反向
传播
-最简单
的
解释
、
、
你能用最简单
的
方式解释一下背靠背
的
算法(数学方程)吗? 我读过很多关于它
的
文章,所以我知道它是什么,并理解它背后
的
直觉,但我仍然不理解“升级/改变”神经元
的
分层属性
的
方程式。
浏览 0
提问于2018-08-09
得票数 1
1
回答
Python
中
错误
的
反向
传播
、
、
我试图理解
错误
的
反向
传播
是如何工作
的
,所以我试图用上面显示
的
非常简单
的
神经网络来实现这一点。) Y = np.array(([1]), dtype=float) [ 0.50672313] 现在我激活了Y,但我完全不知道如何进行
反向
传播
我发现
的
其他视频似乎也以不同
的
方式
反向
传播
错误<
浏览 1
提问于2016-11-22
得票数 1
1
回答
弹性
反向
传播
中
的
错误
?
、
、
、
我正在努力正确地实现弹性
传播
。我已经实现了
反向
传播
算法来训练一个神经网络,它可以像预期
的
那样工作在一个异或网
中
,即大约需要600个周期才能将误差降到1%以下。现在,我尝试为同样
的
问题实现弹性
传播
(),对于最初
的
几个时代,
错误
迅速下降到23%,但随后上升到50%,并停留在那里。我完全按照
中
的
描述实现了它,但这是一个令人费解
的
描述:据我所知,它与维基百科Rprop和encog
中
浏览 3
提问于2014-12-06
得票数 3
回答已采纳
1
回答
Tensorflow:更改影响
反向
传播
的
激活
、
在Tensorflow中有没有一种方法可以在
反向
传播
期间将隐藏
的
节点激活更改为不同
的
值
?也就是说,假设层
中
的
一个节点在前向
传播
期间输出
值
'a1‘。然后在
反向
传播
期间,当梯度更新到达该节点时,我希望它使用一个不同
的
值
作为激活(例如'a2'),以便整个
反向
传播
过程将发生,就像它在正向
传播</em
浏览 0
提问于2019-03-29
得票数 1
1
回答
我遇到了一个梯度计算内部
错误
。
、
、
、
、
我正在自定义数据集上运行此代码(),但遇到了此
错误
。请参阅上面的代码链接,以澄清
错误
发生在何处。 shuffle=True) 要更好地了解dataset类,可以将我
的
dataset类与上面粘贴
的
链接进行比较。
浏览 34
提问于2022-04-08
得票数 0
回答已采纳
2
回答
为
反向
传播
算法提供了很好
的
参考。
我试着更多地了解神经网络
的
基本原理。我觉得我理解了
反向
传播
的
基本原理,但我想巩固我脑海中
的
细节。 我在阅读伊恩·古德费罗著名
的
“深度学习”一书。然而,我发现他们对
反向
传播
的
阐述并不令人满意。他们用
错误
的
方法建立计算图
的
模型,把权
值
变成顶点,使算子变成边。但这是没有意义
的
,因为操作(而不是变量)必须对他们有程度和程度
的
。我想知道是
浏览 0
提问于2018-03-06
得票数 2
1
回答
如何计算神经网络隐层
中
神经元
的
目标输出?
在一个简单
的
单层网络
中
,很容易计算出神经元
的
目标输出,因为它们与网络本身
的
目标输出是相同
的
。然而,在多层网络
中
,我不太确定如何计算隐藏层
中
每个神经元
的
目标,因为它们不一定与最终输出有直接联系,而且很可能在训练数据
中
没有给出。怎样才能找到这些价值呢?提前感谢您
的
所有投入。
浏览 0
提问于2017-07-15
得票数 1
回答已采纳
1
回答
什么时候应该使用
反向
传播
更新神经网络
中
的
权重?
、
假设我有一个3层完全连接
的
神经网络。我正在实现
反向
传播
算法。我
的
问题是,我应该首先计算增量,然后在
反向
传播
完成后,更新权重,还是应该在通过层
反向
传播
时进行更新?我不确定,因为如果我在
反向
传播
过程
中
更新权重,我会使用新更新
的
权重(隐藏到输出权重)来计算隐藏层增量,并且我不确定这是否是所需
的
。 如果我使用了
错误
的
术语,很抱歉,我是新
浏览 44
提问于2019-02-21
得票数 0
1
回答
用
错误
分类数作为
反向
传播
的
目标函数
、
、
我是机器学习(中性网络)
的
新手,我有一个问题,请帮我解释。在
反向
传播
中
,被最小化
的
目标函数通常是输出和目标之间
的
平方误差之和。然而,在分类问题上,目标往往是尽量减少分类
错误
的
总数。为什么总分类
错误
数不能直接用作
反向
传播
的
目标函数?
浏览 5
提问于2015-01-05
得票数 0
回答已采纳
2
回答
PyTorch线性代数梯度
、
、
为了正则化
的
目的,我希望通过奇异
值
分解来
反向
传播
梯度。PyTorch目前不支持通过奇异
值
分解进行
反向
传播
。我知道我可以编写自己
的
自定义函数来操作变量;获取它
的
.data张量,对其应用torch.svd,将变量包装在它
的
奇异
值
周围,并在向前传递
中
返回它,然后在向后传递中将适当
的
雅可比矩阵应用于传入
的
梯度。然而,我想知道是否有一个更优雅(也可能更快)
浏览 5
提问于2017-06-29
得票数 10
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
商品分析中的Excel带有错误值,如何计算?
知识卡片 反向传播中的梯度
Excel–如何才能让工作表中的 0 和错误值都不显示?
优化方法中的常见错误
Upspin 中的错误处理
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券