本节介绍一些经典的卷积神经网络。
在近几年,计算机视觉学习发生了翻天覆地的变化,
y轴是错误率。由图看出在较早期的拘役2⁓4层神经网络结构的shallow错误率高达25.8%和28.2%。而后在alexnet出现后,一下子将错误率降到了16.4%、而后具有19层结构的VGG网络和22层的GoogleNet进一步将错误率降到了7.3%和6.7%。而后发现的ResNet更是将错误率降到了3.57%。
下面我们将依次介绍各个版本的卷积神经网络。
首先介绍LeNet-5.
最开始LeNet-5用于手写数字的识别,由上图的过程可注意到经过了卷积层、隔行采样、卷积层、隔行采样、全连接层、全连接层、高斯连接层。
在当时LeNet-5即将数字识别的正确率提高到了99.2%,一经推出就;垄断了当时美国50%的证券市场。
在此基础上发展起了AlexNet。
AlexNet共计8层结构,比当时普遍存在的3至4层神经网络结构更深。
当时碍于硬件限制,是在2块3GB内存的GTX 580显卡上运行。5个卷积层更有利于提取特征结构。当时新颖的引入了Max pooling、ReLU激活函数和Dropout。
本文分享自 python pytorch AI机器学习实践 微信公众号,前往查看
如有侵权,请联系 cloudcommunity@tencent.com 删除。
本文参与 腾讯云自媒体同步曝光计划 ,欢迎热爱写作的你一起参与!