我正在试图理解神经网络,从我所看到的一切来看,我知道它们是由节点创建的层组成的。这些节点通过“加权”连接相互连接,通过输入层传递值,这些值通过节点传递,根据连接的“权重”更改它们的值(对吗?)。最终,它们会带着一个值到达输出层。我理解这个过程,但我不认为这会导致网络被训练。网络是否记住了加权连接之间的模式?它是如何记住这种模式的?
发布于 2018-12-16 01:33:28
每个节点上的每个权重和偏差就像一个存储的变量。当新数据导致其权重和偏差发生变化时,这些变量也会发生变化。最终完成了一个经过训练的算法,权重和偏差不再需要改变。然后,您可以随心所欲地存储有关所有节点、权重、偏差和连接的信息。此信息是您的模型。因此,“记忆”只是权重和偏差的值。
发布于 2018-12-16 13:59:14
神经网络通过它的权重和偏差记住它所学到的东西。让我们用一个二进制分类的例子来解释它。在前向传播过程中,计算值是概率(例如p),实际值是y。现在,使用公式:-> -(ylog(p) + (1-y)log(1-p))计算损失。一旦计算了损失,该信息就被反向传播,并使用该损失计算相应的权重和偏差的导数。现在,权重和偏差根据这些导数进行调整。在一个时期,所有的例子都会被传播,权重和偏差也会被调整。然后,在每一步中向前和向后传播相同的示例,并相应地调整权重和偏差。最后,在将损失最小化到很好的程度或达到高精度(确保不过度拟合)后,我们可以存储权重和偏差的值,这就是神经网络所学到的。
https://stackoverflow.com/questions/53798455
复制相似问题