离散的卷积如下:
s(t)=(x*w)(t)=\sum_{a=-\infty}^\infty x(a)w(t-a)
在机器学习中,输入通常是多维数组(Tensor),而核通常是由学习算法优化得到的多维数组的参数...因为在输入与核中的每一个元素都必须明确地分开存储,我们通常假设在存储了数值的有限点集以外,这
些函数的值都为零。这意味着在实际操作中,我们可以通过对有限个数组元素的求和来实现无限求和。...通常,下面的式子在机器学习库中实现更简单,因为m和n的有效取值范围相对较小,称为互相关函数(cross-correlation),和卷积运算几乎一样但没有对核翻转:
S(i,j) = (I * K)(i...参数共享是指在一个模型的多个函数中使用相同的参数.
传统神经网络,权重矩阵每个元素只用一次.而用卷积,用于一个输入的权重也会绑定在其他权重上.相当于学会一套权重,应用于所有输入位置上....因为卷积网络通常使用多通道的卷积,所以即使使用了核翻转,也不一定保证网络的线性运算是可交换的。