腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
关联问题
换一批
如何获取Facebook API(get_insights)中的字段名称?
Facebook API(get_insights)有哪些可用字段?
怎样列出Facebook API(get_insights)的所有字段?
文章
(4)
问答
(9999+)
视频
(4)
沙龙
(4)
3
回答
为什么
在
卷积
神经网络中
使用
卷积
层
后的
激活
函数
?
、
、
我
是机器学习的新手,
我
对
卷积
神经网络不太了解,这就是
为什么
我们在
卷积
层
之后进行
激活
。
浏览 2
提问于2018-08-24
得票数 2
回答已采纳
2
回答
为什么
U网的上采样
层
没有
激活
功能?
、
、
、
在
中
,所有
层
都有
激活
函数
,但在上采样
层
中
似乎没有
激活
函数
(即
使用
转置
卷积
)。
为什么
这比
激活
功能提供更高的效率?根据我的理解,
激活
函数
提供
非线性
。因此,这个问题实际上是,在转置
卷积
中保持线性而在正则
卷积
上保持
非线性
有什么好处。在这些
层
中有一个<em
浏览 0
提问于2019-01-22
得票数 2
回答已采纳
1
回答
在没有
激活
函数
的情况下顺序地将两个
卷积
层
放在彼此后面有意义吗?
、
、
我
正在
使用
一个模型,这里是其中的一部分: ...nn.Conv2d(1 * filters_multiplier
我
知道第1-2
层
和第3-4
层
只是为了简化计算(3x1和1x3是6次运算,3x3是9次)而制作的(3,3)。但是,在没有
激活
函数
的情况下,将两个
卷积
层
顺序放在彼此后面是否有意义,或者这只是一个错误?
我<
浏览 81
提问于2021-08-23
得票数 1
回答已采纳
1
回答
卷积
神经网络是一个模型,多输出
层
。
我
正在为Toxici评论分类Kaggle竞赛撰写一份大学报告,比较不同模型的不同尝试,
我
想知道
卷积
神经网络是否是一个模型,多输出
层
模型。ONMO也称为多任务学习,这种方法将有一个输入
层
、一组隐藏
层
和每个标签的一个输出
层
。 另一方面,
CNN
是几层具有
非线性
激活
函数
(如ReLU或tanh )的
卷积
。它
使用
输入
层
上的
卷积
来计算输出,而
浏览 0
提问于2018-03-12
得票数 0
1
回答
为什么
我
要在
CNN
卷积
层
中
使用
非线性
激活
函数
?
、
、
、
我
在
CNN
上听麻省理工学院的深度学习讲座。它说,当将权重与像素值相乘时,可以在每个像素上应用像relu这样的
非线性
激活
函数
。
我
理解
为什么
应该在简单的神经网络
中
应用它,因为它在我们的输入数据
中
引入了
非线性
。但是
为什么
我
要将它应用于单个像素呢?还是
我
搞错了?
浏览 119
提问于2020-06-17
得票数 0
回答已采纳
2
回答
卷积
层
中
的活化
在
CNN
上,在
卷积
层
中
使用
激活
函数
有什么用? 是否对完整矩阵
使用
单个权重,对于每一个像素或框,它可能会有所不同?
浏览 0
提问于2018-12-05
得票数 1
回答已采纳
2
回答
为什么
我
的二进制分类模型不学习,甚至过拟合?
、
、
、
、
我
有以下模型,
使用
tensorflow 2.2.0和keras: def get_model(input_shape): model.add(trainX, trainY, validation_split=0.2, epochs=10, batch_size=50)
我
还尝试将优化器更改为sgd,结果相同,并尝试了不同的批处理大小(包括1
我
是不是遗漏了什么基本的东西? 编辑:将转换
层
的
激活
设置为relu无济于事。val
浏览 42
提问于2020-07-14
得票数 0
1
回答
你能解释一下如何从
CNN
的以下代码中提取特征吗?
、
、
、
如何从以下
卷积
神经网络编码中提取图像特征from tensorflow.keras.utils import img_to_array img = img/255X = np.array(df_image) 图像被转换为3
层
矩阵(RGB)
中
的256 x 256 x3大小,其中每一
层
包含256 x 256值。
浏览 13
提问于2022-12-04
得票数 -1
回答已采纳
2
回答
在VGG16网络
中
添加批归一化
层
、
、
、
、
我
想
使用
批处理归一化
层
,以减少过度拟合在VGG16
CNN
。 将批处理规范化
层
添加到网络的哪个位置?
浏览 0
提问于2018-09-06
得票数 4
2
回答
CNN
中
多层膜的
激活
功能
、
在最终完全连接的
层
上需要
激活
函数
(例如sigmoid)。但是
为什么
在
卷积
层
上也要应用
激活
函数
呢?据我所知,
激活
函数
只需
要在
最后一
层
上应用一次。
浏览 0
提问于2019-02-18
得票数 2
1
回答
什么是交错
层
的
卷积
?
在FaceNet纸
中
,他们这样描述泽勒&费格斯模型:交错是什么意思?这与起始
层
相比如何?特别是,正如泽勒和费格斯纸业所说的 我们在整个论文中
使用
标准的完全监督的convnet模型(LeCun等人,1989年)和(Krizhevsky等人,2012年)。...网络的前几层是传统的全连通网络,最后一
层
是softmax分类器。
浏览 0
提问于2016-11-18
得票数 1
回答已采纳
1
回答
CNN
中
的通道和神经元
、
我
正在学习什么是
卷积
层
,以及它的功能。
我
有几个问题要问。一个是in_channels和out_channels是什么。在
我
的代码
中
,
我
有以下内容:
我
知道这个
层
的in_channels是3,因为RGB,但我不明白
为什么
out_channels是64,
为什么
<
浏览 0
提问于2020-10-11
得票数 0
回答已采纳
1
回答
CNN
中
的权重和偏差问题
、
、
我
目前正在学习
CNN
。
我
理解在后期完全连接的
层
浏览 1
提问于2019-05-08
得票数 2
3
回答
如果ReLU如此接近线性,
为什么
它的性能要比线性
函数
好得多呢?
、
我
是深入学习研究和方法的初学者,但我已经看到了几个例子,它们声称
使用
ReLU作为网络上的
激活
函数
将优于其他常见
函数
,当然包括简单的线性
函数
。是否有研究或意见,
为什么
这一变化显着影响一个网络的性能? 0有什么独特之处吗?改变的意义?例如,如果我们将更改的重点移到1上怎么办?
我
的直觉是,当0分隔行时,它分离符号
函数
,这可能对依赖于正/负分类的
浏览 0
提问于2020-02-25
得票数 2
2
回答
Fast R-
CNN
中
ROI
层
的用途是什么?
、
、
、
在关于目标检测的教程
中
,提到了快速的R-
CNN
。ROI (感兴趣区域)
层
也被提及。 当区域提案根据最终的
卷积
层
激活
函数
(在每个单元
中
)调整大小时,在数学上会发生什么?
浏览 1
提问于2017-04-15
得票数 27
回答已采纳
1
回答
CNN
图像二值分类准确率50%
、
、
我
有一组睁开和闭着眼睛的照片。数据是通过这种方式从当前目录中
使用
keras收集的:N_images = 84898 #total number of images target_size=(h, w), class_mode = 'binary')
我
有一个
我
已经建立了这个顺序模
浏览 2
提问于2020-06-18
得票数 0
回答已采纳
1
回答
如何在伯特的基础上添加
CNN
层
?
、
、
、
、
我
只是在玩bert (来自变压器的双向编码器表示) 假设
我
想在BERT模型的基础上添加任何其他模型或
层
,比如
卷积
神经网络
层
(
CNN
)、
非线性
层
(NL)。
我
该怎么做?
我
想不出
我
该在哪里修改伯特的代码。
我
使用
的是拥抱脸的伯特的pytorch实现。📷请说明
使用
sudo代码实现此操作的步骤,这将帮
浏览 0
提问于2019-06-24
得票数 5
2
回答
可以改变
卷积
层
和池
层
的顺序吗?
、
、
、
、
许多
CNN
体系结构依次由
卷积
层
和池
层
组成。
我
只是想知道是否有可能改变
卷积
层
和池
层
的顺序。如果没有,你能解释
为什么
卷积
层
先于池
层
吗?
浏览 0
提问于2018-07-30
得票数 3
3
回答
池
层
或
卷积
层
后的
激活
功能?
、
、
理论分析表明,
卷积
网络的阶数为:Convolutional Layer - Non-linear Activation - Pooling Layer。但是,在这些站点的最后一个实现
中
,它说顺序是:Convolutional Layer - Pooling Layer - Non-linear Activation
我
也尝试过探索Conv2D操作语法,但是没有
激活
函数
,它只是翻转内核的
卷积
。有人能帮我解释一下
为什么
会发生这种事吗?
浏览 2
提问于2016-02-21
得票数 39
回答已采纳
2
回答
卷积
层
是否有一个精确的逆
、
、
、
、
卷积
层
通常产生较小尺寸的输出。是否有可能通过翻转/转置
使用
的内核并提供填充或类似的方式来逆转这样的操作? 只是看看这里的
卷积
层
的操作-没有池
层
,级联,
非线性
激活
函数
等。
我
不寻找任何几个可训练版本的反向
卷积
操作。这可以通过输出空间中的$\geq 1$或者输入空间中的内部填充来实现。文森特·杜穆林和弗朗西斯科·维辛在他们的上提供了非常清晰、生动的gifs。深度学习社区在命名这些操作时存在分歧:
浏览 0
提问于2018-01-30
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
经典CNN模型整理(一)卷积回顾及 Lenet,Alexnet
人人都能读懂卷积神经网络:Convolutional Networks for everyone
图解CNN系列二:卷积神经网络各层结构
使用Keras进行深度学习(二):CNN讲解及实践
CNN笔记 深扒神经网络的方方面面!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券
首页
学习
活动
专区
圈层
工具
返回腾讯云官网