寒寒冬日,天气虽冷,但小编为大家写作的心一直暖暖,也相信大家在这里给您带来丝丝的暖意,另外提醒大家冬天注意保暖别感冒哦,请看下面小编为大家奉上的精彩内容。
人工神经网络的泛化性和正向网络推理,由试验结果可以看出,在一定范围内,训练次数的增加可以提高神经网络的泛化能力。然而,在神经网络的训练过程中经常出现一种过拟合现象,即在网络训练过程中,随着网络训练次数的增加,网络对训练样本的误差逐渐减小,并很容易达到中止训练的最小误差的要求,从而停止训练。
在训练样本的误差逐渐减小并达到某个定值以后,往往会出现网络对训练样本以外的测试样本的误差反而开始增加的情况。对网络的训练,并不是使训练误差越小越好,而是要从实际出发,提高对训练样本以外数据的映射能力,即泛化性能。
但更重要的是会导致神经网络拟合数据中噪声信号的过学习(over learning),从而影响神经网络的泛化能力。学习和泛化的评价基准不一样是过学习产生的原因。Reed等人对单隐含层神经网络训练的动态过程进行分析后发现,泛化过程可分为三个阶段:
泛化误差单调下降;
但在这一阶段,泛化误差将达到最小点;
泛化误差又将单调上升。
最佳泛化点出现存在一定的时间范围。理论上可以证明在神经网络训练过程中,存在最优的停止时间。
正向网络推理的步骤和特征
正向网络推理的步骤如下:
(1)把已知数据输入网络输入层的各个节点。
前一层的输出作为后一层有关节点的输入,逐层进行计算,直至计算出输出层的输出值。
从而得到输出结果。
但层间的信息传递是串行的。由于层中处理单元的数目要比网络的层数多得多,因此它是一种并行推理。
(2)在网络推理中不会出现传统人工智能系统中推理的冲突问题。
而这些参数又是通过使用学习算法对网络进行训练得到的,因此它是一种自适应推理。
为了这篇文章小编也算是煞费苦心,就算再各位心中不是最好的,我想您也能看出是最用心的,如果有哪些大哥大姐被小编的文章感动触动到,那么就请给小编一个简单的关注或者赞,您随手的一个动作会让小编更加努力,让小编心里暖暖几天
领取专属 10元无门槛券
私享最新 技术干货