前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[DeeplearningAI笔记]卷积神经网络1.9-1.11池化层/卷积神经网络示例/优点

[DeeplearningAI笔记]卷积神经网络1.9-1.11池化层/卷积神经网络示例/优点

作者头像
演化计算与人工智能
发布2020-08-14 14:40:08
5610
发布2020-08-14 14:40:08
举报

1.9 池化层

优点

  • 池化层可以缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性。

池化层操作

  • 池化操作与卷积操作类似,但是池化操作是保留池化窗口在扫过原始图像中时的最大值。注意:每个信道都在其单独的信道中执行池化操作。其维度公式也满足公式:
\lfloor\frac{(n+2p-f)}{s}+1\rfloor*\lfloor\frac{(n+2p-f)}{s}+1\rfloor

其中 n 为原始图像大小,p 为 Padding 填充维度,f 为卷积核大小,s 为步长

  • 平均池化层较最大池化层不那么常用,其特点是选取其扫过的原始图片中池化窗口中的平均值而不是最大值。
  • 池化的超参数有:filter size 池化窗口大小,stride 池化步长,其中 filter size 通常选取 2,stride 池化步长也选择为 2
  • 池化层很少使用到 Padding

1.10 卷积神经网络示例

  • 此例中卷积层和池化层的组合被称为一个 Layer。也有几个卷积层后跟一个池化层的情况,也是很常见的。
  • 找到合适自己的超参数的好方法是大量阅读同类型的别人的论文中提出的结构和方法,使用与其近似的超参数解决问题。

1.11 为什么使用卷积

  • 卷积层相对于普通全连接神经网络最终要的两个特点是:参数共享(parameter sharing)和稀疏连接(sparsity of connections)

卷积层和全连接层参数比较

  • 对于一个
32*32*3

的 3 通道图片来说,使用 6 个

5*5

的卷积核进行卷积操作,得到的是

28*28*6

的 6 通道图片。假设使用全连接神经网络,第一层会有

32*32*3=3072

个神经元,而得到的图片需要用

28*28*6=4704

个神经元进行表示。则需要的参数数量为

3072*4074\approx14M

.但是使用卷积神经网络只需要

(5*5+1)*6

=156 个参数。

参数共享(parameter sharing)

  • 卷积核用以表示学习到的特征,所扫过的区域共用一个卷积核。

稀疏连接(sparsity of connections)

  • 稀疏连接(sparsity of connections)表示得到的特征图中的节点只与原始图片中的特定节点相连接。与其余节点的取值无关。
  • 更少的参数可以有效的防止过拟合。

参考资料

[1]

吴恩达老师课程原地址: https://mooc.study.163.com/smartSpec/detail/1001319001.htm

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-05-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrawSky 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.9 池化层
    • 优点
      • 池化层操作
      • 1.10 卷积神经网络示例
      • 1.11 为什么使用卷积
        • 卷积层和全连接层参数比较
          • 参数共享(parameter sharing)
            • 稀疏连接(sparsity of connections)
              • 参考资料
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档