我用乐高做例子,不做公式罗列了。深度学习就好比用乐高搭房子。如果用基础件搭房子,我需要许多的参数,几个方块,几个圆柱,几个三角,几个环形,几个红色,几个绿色……(输入层);如果我将基础块进行简单的组合,组合成几块墙壁,几块屋顶,几块窗户和几个门…(隐含层),这时参数就比较少了,特征也很明显了,这些特征是无导师监督学习到的,而且是完备的(这些墙壁屋顶足够你搭房子用,不会出现不够用)。隐含层多了,组件也越整合,所需组件的个数也越少(特征的可描述性越强,参数越少)。这时再拿一个乐高模型给你,很快就可以通过判断有没有屋顶、窗户、墙壁和门,来断定这个模型是不是房子,而不用再去数有多少个类型的乐高基础块。与之前神经网络学习算法比较,DL的优势还在于它的特征是网络自己学习到的(无导师监督),不需要人工探索特征提取的方法,不用依赖个人的经验选取特征。它最终得到的特征空间具有理论依据,更为可靠(通过看有没有屋顶、墙壁、窗户和门判断是否是房子,比数有几块方块、几个圆柱、几个三角更可靠)。
领取专属 10元无门槛券
私享最新 技术干货