对神经网络中出现的数学信息进行解释
神经网络是由一个个层组合而成,每个层都会对输入进行添加权重,对于计算开始时间,神经网络会给出一个初始化的值,然后进行不断优化,也叫训练,每一次优化叫作一次训练过程
其中最核心的部分是第四步更新权重,神经网络使用求导和梯度下降的方式进行优化,为了避免算法的复杂,因此每次就行抽样,这样的方式也叫坐小批量随机梯度下降(mini-batch stochastic gradient descent,SGD),如果每次只抽取一个样本,叫作真SGD,如果每次迭代在所有数据上进行,那么叫作批量SGD
f(W1, W2, W3) = a(W1, b(W2, c(W3)))
链式法则:
(f(g(x)))' = f'(g(x)) * g'(x)
神经网络里的数学推导太过复杂,梯度下降算法,包括后面的链式求导如果自己推导的话还是困难,理解就行。例如梯度下降中的学习率、局部最优、全局最优和迭代等概念。
love&peace