腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(7704)
视频
沙龙
1
回答
Resnets
中
的
深度
残
差
网络
、
残
差
块
的
权重矩阵是否已经设置为0,或者我们需要将
残
差
块
的
权重矩阵训练为接近0?在什么情况下,我们通过
残
差
块
的
权重矩阵进行反向传播?我们什么时候跳过反向传播来选择替代路由呢?
浏览 10
提问于2020-01-20
得票数 0
3
回答
如果使用RELU激活函数解决消失梯度问题,为什么ResNet
的
主要目的是什么?
、
、
、
、
有没有什么我遗漏
的
关于ResNet
的
其他重要
的
东西,或者即使在使用RELU之后也会发生消失梯度问题?
浏览 0
提问于2020-05-30
得票数 2
3
回答
只使用完全连接层(而不是卷积层)构建
残
差
网络
有意义吗?
、
、
、
、
残
差
网络
总是用卷积层构建
的
。我从未见过仅具有完全连接层
的
剩余
网络
。构建仅具有完全连接层
的
剩余
网络
是否可行?
浏览 8
提问于2020-05-26
得票数 6
2
回答
理解ResNet
的
单位块和卷积块
、
、
、
、
我正在学习Andrew Ng coursera lectures
的
残
差
网络
(ResNet50)。我理解
ResNets
工作
的
主要原因之一是他们可以学习身份功能,这就是为什么在
网络
中
添加越来越多
的
层不会损害
网络
的
性能。现在,正如讲座中所描述
的
,在
ResNets
中使用了两种类型
的
块: 1)身份块和卷积块。 当输入和输出尺寸没有变化时,使用Identit
浏览 1
提问于2019-10-02
得票数 6
1
回答
深度
残
差
网络
的
直觉
、
我当时正在阅读
深度
剩余
网络
文件,其中有一个我无法完全理解
的
概念:问题: 这是什么意思“希望两个重量层适合F(x)”?这里F(x)处理具有两个权重层
的
x(+ ReLu非线性函数),所以所需
的
映射是H(x)=F(x)?残余物在哪里?
浏览 2
提问于2017-04-08
得票数 5
回答已采纳
1
回答
什么是神经
网络
中
的
同一性映射
、
我在一些关于神经
网络
的
论文中遇到了同一性映射这个词,但我不确定它在这种背景下意味着什么。我猜这意味着把一种输入映射到一个输出?我在报纸“图像识别
中
的
深度
残
差
学习(2015)”和“
深度
剩余
网络
中
的
恒等映射(2016年)”中都看到了这一术语,这两篇文章都是他等人写
的
。
浏览 0
提问于2016-09-25
得票数 6
回答已采纳
1
回答
ResNext体系结构
中
基数与宽度
的
关系
、
、
我最近在看
深度
神经
网络
的
聚集
残
差
变换
的
报纸。谢谢!
浏览 0
提问于2019-03-18
得票数 3
回答已采纳
1
回答
卷积神经
网络
块表示法
、
、
、
“图像识别的
深度
残
差
学习”
的
论文在图3
中
说明了它们
的
剩余
网络
如下:我不是神经
网络
专家,所以有人能解释一下“3x3conv,256,/2”上面的高亮符号是什么意思吗?第一部分是清晰
的
(具有3x3像素窗口
的
卷积神经
网络
),但是"256“和"/2”是什么?
浏览 0
提问于2020-03-27
得票数 3
回答已采纳
1
回答
学习ML算法
的
不确定性
、
、
我有一个回归GAM (一般加法模型),我想了解它
的
认知不确定性(我
的
残
差
或预测
的
变化,作为我
的
输入函数)。我已经使用了贝叶斯方法将我
的
GAM转换成一个高斯过程,这样我就可以构造一个协方差矩阵,但是由于问题
的
高维性,这种方法是不可扩展
的
。我试图使用一种方法,使用当前模型作为黑匣子,只观察输入和
残
差
,我发现
的
最接近
的
是分位数回归,但我想知道是否有深入学习方法从输入中学
浏览 0
提问于2020-07-20
得票数 2
2
回答
残
差
神经
网络
:串联还是元素相加?
、
、
对于
残
差
神经
网络
中
的
残
差
块,块末尾
的
加法是真正
的
元素相加还是级联? 例如,addition([1, 2], [3, 4])会生成[1, 2, 3, 4]还是[4, 6]?
浏览 5
提问于2017-10-24
得票数 6
1
回答
如何构造时间序列预测
的
置信界?
、
、
我有一些时间序列数据,并正在使用一些
深度
学习技术,以获得它
的
预测。现在,我想为它建立信心界限。📷 现在,我想使用类似的技术,这样我就可以在时间序列图上有信心界。
浏览 0
提问于2019-04-28
得票数 4
1
回答
为提高精度而进行
的
误差分析
、
我有时间序列
的
历史错误。我想通过分析误差序列来改进预测序列。有什么方法可以做到吗?
浏览 0
提问于2014-11-25
得票数 5
1
回答
“底层映射”这个短语是什么意思?
在KaimingHe
的
一篇题为图像识别的
深度
残
差
学习
的
论文中,有一个短语“底层”。这是什么意思?
浏览 0
提问于2021-04-06
得票数 0
1
回答
理解nnet函数
的
输出
、
、
、
我是神经
网络
的
新手,所以,对于我天真的问题,很抱歉。我想了解一下nnet函数
的
输出。我正在使用这个函数来执行多类分类。特别是,我有一个包含216个主题、6个变量和一个表示类
的
列
的
数据集(类是三个)。nnet_trainData_SRT2$Y = class.ind(nnet_trainData_SRT2$Classe) 所以现在,我
的
数据帧是这样
的
1.945910 2.302585 2.484907
浏览 2
提问于2017-12-18
得票数 0
1
回答
对高精度数据
的
深入学习
、
、
任务模型从数据
中
可以看出,缩小差距,更难解决神经
网络
的
问题(稀疏度固定在1e2)。对于小于1e-4
的
差距,它无法了解两者
的
区别。对于这样
的
数据
浏览 1
提问于2022-05-12
得票数 0
1
回答
理解dinic
的
算法有问题吗?
、
、
我对dinic
的
算法在如何使用
残
差
网络
方面有一点误解 因此,据我所知,算法如下 1-在
残
差
网络
上运行bfs,并根据与源
的
距离为节点分配级别 2-如果从未到达汇聚节点,则终止算法 3-以严格递增
的
级别运行dfs迭代,以找到扩充路径,直到到达阻塞流,并对扩充路径
的
所有瓶颈值求和,以获得最大流量,并根据每条路径
的
瓶颈更新剩余
网络
4-重复1 2 3 现在我
的
问题是,这个
浏览 14
提问于2020-01-19
得票数 0
回答已采纳
1
回答
LSTM在后支柱与通常“误差”之间
的
“
残
差
”
当我们谈论LSTM时,
残
差
意味着什么?📷其中$s_0$是神经
网络
的
初始状态。 问题:
残
差
与通常
的
错误有何不同?为什么要用这样
的
术语呢?
浏览 0
提问于2018-07-04
得票数 1
回答已采纳
2
回答
理解glm$残留物和resid(glm)
、
您能告诉我 glm $residuals和resid(glm)返回
的
是什么吗,其中glm是一个拟泊松对象。例如,如何使用glm$y和glm$linear.predictors创建它们。
浏览 2
提问于2010-03-28
得票数 13
回答已采纳
6
回答
如何使用最大流算法在图上找到最小割线?
、
、
、
、
我需要找到图上
的
最小割线。我一直在读关于流
网络
的
文章,但我所能找到
的
都是最大流算法,如Ford-Fulkerson,push-relabel等。给定最大流-最小割集定理,是否可以使用这些算法
中
的
一种来使用最大流算法在图上找到最小割集?多么? 到目前为止,我找到
的
最好
的
信息是,如果我找到“饱和”边,即流量等于容量
的
边,这些边对应于最小切割。对我来说这听起来不是100%正确
的
。的确,最小割线上
的
所有边都
浏览 6
提问于2010-12-19
得票数 59
1
回答
对ford算法
的
bfs进行改进,以寻找增广路径
、
、
、
、
我正在使用bfs来寻找增强
的
path.but它产生相同
的
路径每个time.but福特富尔克森算法要求,我们每次从源到宿选择不同
的
路径,所以有人能建议我如何修改bfs,使它在源和sink.graph之间每次被定向和加权时产生不同
的
路径
浏览 2
提问于2012-07-05
得票数 2
回答已采纳
点击加载更多
相关
资讯
深度残差网络上
深度残差网络下
深度学习入门讲解:什么是残差网络Resnet(上)
残差网络原理详解
正交残差更新:为深度网络提供稳定高效的更新机制
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券