首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >请解释CNN的架构

请解释CNN的架构
EN

Data Science用户
提问于 2019-04-15 15:24:51
回答 1查看 44关注 0票数 0

我有下面的架构,我想了解下面的问题,这是我的代码,我的图像大小是50X50。

代码语言:javascript
运行
AI代码解释
复制
 model.add(Conv2D(16, (3,3), input_shape=(image_x, image_y, 1), activation='relu'))
        model.add(MaxPooling2D(pool_size=(2, 2), padding='same'))
        model.add(Conv2D(32, (3,3), activation='relu'))
        model.add(MaxPooling2D(pool_size=(2, 2), padding='same'))
        model.add(Conv2D(64, (3,3), activation='relu'))
        model.add(MaxPooling2D(pool_size=(2, 2), padding='same'))
        model.add(Flatten())
        model.add(Dense(128, activation='relu'))
        model.add(Dropout(0.2))
        model.add(Dense(num_of_classes, activation='softmax'))`
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])

我的问题是: 1] dense_1 :平面有1600个输入,输出将是128个,所以它将如何从1600个输入中选择128个输出?(2)将在哪个层中应用丢失的功能和优化。

EN

回答 1

Data Science用户

发布于 2019-04-15 17:06:03

  1. 你不能从1600中选择128。稠密层执行矩阵向量乘法.首先,平坦层基本上将您的max_pool层( 5*5*64 )的输出扁平化为向量(1600*1) (注意5*5*64 =1600)。这只是对元素的重新安排。我们扁平最大池层,因为我们希望使用最大池层的输出作为密集层的输入(密集层也称为完全连接层或多层感知器)。稠密层只不过是一个向量矩阵乘法.假设您有一个形状为1600*1的输入向量(I),并且您希望输出(O)形状为128*1。那么稠密的层将执行以下操作: O=WI,其中W是一个128*1600权矩阵。这就是W矩阵的128个output.The维数是由输入形状和输出形状指定的,因此,在指定输入/输出形状之后,W矩阵是由tensorflow隐式自动生成的。顺便说一句,密度层块中的" relu“函数,称为非激活函数,对输出矢量(128*1)中的每个元素执行relu函数计算,因此它不会影响最终的输出形状。
  2. 通常,所有的层都会被优化。损失函数定义了真实标签和神经网络输出之间的损失(在您的情况下,这是最后的密集层)。损耗回的梯度通过反向传播算法传播到每一层(您可以在线检查它,但基本上它只是链式规则)。因此,每个层都有自己的误差梯度。然后,我们使用这些误差梯度来更新每个层的系数,以使总体损失更小(损失函数定义的损失)。这种运算称为梯度下降算法。因为每个层都单独更新,所以始终可以冻结一些层,这样这些系数就不会更新,这可以在tensorflow中完成。
票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/49359

复制
相关文章
可解释的CNN
Quanshi Zhang, Ying Nian Wu, Song-Chun Zhu
CreateAMind
2018/07/24
3180
可解释的CNN
什么是Hadoop?请简要解释其架构和组件。
Hadoop是一个开源的分布式计算框架,用于处理和存储大规模数据集。它的设计目标是在廉价的硬件上提供高容错性,并且能够处理大量的数据。Hadoop的架构由两个核心组件组成:Hadoop Distributed File System(HDFS)和MapReduce。
GeekLiHua
2025/01/21
1200
什么是HDFS?请解释其架构和工作原理。
HDFS(Hadoop Distributed File System)是Apache Hadoop生态系统中的一个关键组件,用于存储和处理大规模数据集。它是一个分布式文件系统,设计用于在具有大量节点的集群上存储和处理大型数据集。
GeekLiHua
2025/01/21
460
Hadoop中的YARN是什么?请解释其作用和架构。
YARN是Hadoop的一个重要组件,它是一个资源管理器和作业调度器,用于管理和调度集群中的计算资源。YARN的主要目标是提供一个通用的资源管理框架,使得Hadoop能够更好地支持各种计算模型和应用程序。
GeekLiHua
2025/01/21
870
使用LIME解释CNN
我们已经介绍过很多解析机器学习模型的方法,例如如pdp、LIME和SHAP,但是这些方法都是用在表格数据的,他们能不能用在神经网络模型呢?今天我们来LIME解释CNN。
deephub
2023/01/18
7540
模型|“请解释”黑盒机器学习模型的解释性
2019年2月,波兰政府对银行法进行了修订,赋予客户在做出信贷拒绝时获得解释的权利。这是在欧盟实施GDPR的直接后果之一。这意味着,如果决策过程是自动的,银行需要能够解释为什么不发放贷款。
陆勤_数据人网
2019/05/14
1.3K0
CNN神经网络的直观解释
卷积神经网络(ConvNets 或者 CNNs)属于神经网络的范畴,已经在诸如图像识别和分类的领域证明了其高效的能力。卷积神经网络可以成功识别人脸、物体和交通信号,从而为机器人和自动驾驶汽车提供视力。
bear_fish
2018/09/19
6730
请解释一下TreeMap?
TreeMap是一个有序的key-value集合,基于红黑树(Red-Black tree)的 NavigableMap实现。该映射根据其键的自然顺序进行排序,或者根据创建映射时提供的 Comparator进行排序,具体取决于使用的构造方法。
剑走天涯
2019/09/10
4660
卷积神经网络(CNN)概念解释
卷积神经网络(CNN)概念解释 传统对象识别-模式识别 传统的模式识别神经网络(NN)算法基于梯度下降,基于输入的大量样本特征数据学习有能力识别与分类不同的目标样本。这些传统模式识别方法包括KNN、SVM、NN等方法、他们有一个无法避免的问题,就是必须手工设计算法实现从输入图像到提取特征,而在特征提取过程中要考虑各种不变性问题、最常见的需要考虑旋转不变性、光照不变性、尺度不变性、通过计算图像梯度与角度来实现旋转不变性、通过归一化来避免光照影响,构建尺度金字塔实现尺度不变性,这其中SIFT与SURF是其这类
OpenCV学堂
2018/04/04
2.2K0
卷积神经网络(CNN)概念解释
CNN循环训练的解释 | PyTorch系列(二十二)
原标题:CNN Training Loop Explained - Neural Network Code Project
AI算法与图像处理
2020/07/01
1.1K0
CNN循环训练的解释  | PyTorch系列(二十二)
五个很厉害的 CNN 架构
让我们来看看一些强大的卷积神经网络,这些网络实现的深度学习为今天的计算机视觉的成就奠定了基础。
崔庆才
2019/09/04
4970
五个很厉害的 CNN 架构
请解释一下this和super的区别?
切记: · this.方法():先从本类查找是否存在指定的方法,如果没有找到,则调用父类操作; · super.方法():直接由子类调用父类之中的指定方法,不再找子类。
葆宁
2019/04/19
4250
请解释一下this和super的区别?
五个很厉害的 CNN 架构
让我们来看看一些强大的卷积神经网络,这些网络实现的深度学习为今天的计算机视觉的成就奠定了基础。
AI研习社
2018/12/26
4660
keras中文文档之:CNN眼中的世界:利用Keras解释CNN的滤波器
本文有代码; 本文作者:Francois Chollet 使用Keras探索卷积网络的滤波器 本文中我们将利用Keras观察CNN到底在学些什么,它是如何理解我们送入的训练图片的。我们将使用Keras
CreateAMind
2018/07/20
7990
经典面试题-请解释Spring Bean的自动装配?
在Spring框架中,在配置文件中设定bean的依赖关系是一个很好的机制,Spring容器还可以自动装配合作关系bean之间的关联关系。这意味着Spring可以通过向Bean Factory中注入的方式自动搞定bean之间的依赖关系。自动装配可以设置在每个bean上,也可以设定在特定的bean上。 下面的XML配置文件表明了如何根据名称将一个bean设置为自动装配:
cwl_java
2019/11/05
1.7K0
经典面试题-请解释自动装配模式的区别?
在Spring框架中共有5种自动装配,让我们逐一分析。 no: 这是Spring框架的默认设置,在该设置下自动装配是关闭的,开发者需要自行在bean定义中用标签明确的设置依赖关系。 byName: 该选项可以根据bean名称设置依赖关系。当向一个bean中自动装配一个属性时,容器将根据bean的名称自动在在配置文件中查询一个匹配的bean。如果找到的话,就装配这个属性,如果没找到的话就报错。 byType: 该选项可以根据bean类型设置依赖关系。当向一个bean中自动装配一个属性时,容器将根据bean的
cwl_java
2019/11/05
6560
什么是MapReduce?请简要解释其工作原理。
MapReduce是一种用于大规模数据处理的编程模型和计算框架。它的设计目标是将大规模数据集分布式处理,以便高效地进行并行计算。MapReduce模型由两个主要操作组成:Map和Reduce。
GeekLiHua
2025/01/21
1040
经典面试题-请举例解释@Autowired注解?
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
cwl_java
2019/11/07
8720
如何从频域的角度解释CNN(卷积神经网络)?
时域卷积=频域乘积,卷积神经网络大部分的计算也在卷积部分,如何从频域的角度思考卷积神经网络,如何从频域的角度解释ResNet。
abs_zero
2020/11/11
1.3K0
如何从频域的角度解释CNN(卷积神经网络)?
Transformer-CNN:用于 QSAR 建模和解释的先进工具
今天给大家介绍的是Journal of Cheminformatics上的文章 " Transformer-CNN: Swiss knife for QSAR modeling and interpretation"
智药邦
2021/07/14
2K0
Transformer-CNN:用于 QSAR 建模和解释的先进工具

相似问题

重要的CNN架构

20

CNN架构的变化

10

如何修补CNN的架构?

10

CNN输出形状解释

20

代表深层次CNN的架构

10
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档