暂无搜索历史
这里注意到由[2, 64, 32, 32]到[2, 128, 32, 32],channel数量翻倍,而长和宽没有变化。这样势必会导致x的维度会越来越大。
再定义一个ResNet网络 我们本次准备构建ResNet-18层结构 class ResNet(nn.Module): def __init__(se...
之前讲到过,ResNet包含了短接模块(short cut)。本节主要介绍如何实现这个模块。
下面开始加入test部分 先写入test部分代码 for x, label in cifar_test: x, label = x.to(device)...
本节介绍在LeNet5中求loss的操作。 本结构使用CrossEntropyLoss进行求loss 首先引入工具包 import torch.nn.funct...
上次课我们讲解了对于CIFAR10数据读取部分代码的编写,本节讲解如何编写经典的LeNet5神经网络。
这里设置了batch_size=32,对于一般硬件配置来说32是个较合理的数值,若硬件性能够强可设更高。
登录http://www.cs.toronto.edu/~kriz/cifar.html网站,可以自行下载数据集。
局部增强,一般裁剪操作是配合图片旋转操作共同进行,先裁减掉一部分,再进行旋转即可。
那么在现实生活中,想要得到大量的数据,不仅要收集各种情景下、各种角度、各个位置的照片,还有确保数据的多样性。
上图是对前节课所讲的小结,通过Normalize将[6, 3, 784]分为3个通道的[6, 784]数据。使得数据结果整体分布于(0~正负1)区间内。
(1)nn.Module在pytorch中是基本的复类,继承它后会很方便的使用nn.linear、nn.normalize等。
上次课介绍了LeNet-5和AlexNet,本节课介绍VGG和GoogleNet。
y轴是错误率。由图看出在较早期的拘役2⁓4层神经网络结构的shallow错误率高达25.8%和28.2%。而后在alexnet出现后,一下子将错误率降到了16....
在左图(准确率)的比较中,从AlexNet到GoogleNet再到ResNet,准确率逐渐提高。20层结构是很多网络结构性能提升的分水岭,在20层之前,模型性能...
由之前的研究,会有人疑问是否往往更深层次的神经网络具有更佳的表现?这种问题现在还无法进行完美的解答。
Batch Normalization(批量标准化)是深度学习中经常使用的,本节介绍它的定义和用法。
pooling(池化)层原则上为采样操作,与upsample(上采样)不同的是,pooling为下采样操作,即将feature map变小的操作。
这里第一个3代表3个通道,input channel数量为之前的1,3 3 代表了所取的kernel的size。
如上图中所列参数,x为1(假设batch为1)张图片、3个通道(对应于RGB三个通道)、28*28的大小。而kernel中的3代表对input的x上的三个通道上...
暂未填写公司和职称
暂未填写个人简介
暂未填写技能专长
暂未填写学校和专业
暂未填写个人网址
暂未填写所在城市