选自本人知乎对于:求问:调参是否能对深度学习模型的性能有极大提升?的回答
具体内容如下:
ZFNet可以去了解一下,处于Alex Net和VGG Net之间的结构,2013年的Image Net冠军。相较于Alex Net修改了些参数。其实 VGG也算Alex调参出来的
从上述图表中可以发现,越简单网络调参提升越大。这基本有两个原因造成,1,简单网络可以优化的空间多,2,简单网络成绩一般,比较容易提升。 其实ResNet V2,也算通过V1调参优化出来的,提升就没有多么明显了。
但是其实个人ResNet V2贡献更大,虽然提升效果一般,但是提出了一种通用提升残差块方法,应用更加广泛。