首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

【机器学习基础】一文搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L1-norm来衡量距离,那就是我们的LAD(Least Absolute Deviation,最小绝对偏差),其优化的目标函数如下: 实际意义上的解释就是预测值与真实值之间的绝对值。

2.2K20
您找到你想要的搜索结果了吗?
是的
没有找到

特征锦囊:今天一起搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L1-norm来衡量距离,那就是我们的LAD(Least Absolute Deviation,最小绝对偏差),其优化的目标函数如下: 实际意义上的解释就是预测值与真实值之间的绝对值。

1.4K40

DenseFuse: A Fusion Approach to Infrared and Visible Images 阅读笔记

这是传统的神经网络 下图是dense block 可以看出,每一层的结果都传递给之后的每一层,这样保证了中间层的有效信息也可以被使用 融合策略用于融合图像,文中提到的融合策略有两种,分别是加法策略和l1...编码层输出会作为融合层的输入 解码器 解码器同样也有四个CNN层,解码器中的输入通道从左至右越来越少,直到最后输出时就是一个通道了,最后一个通道的结果就是我们重建的图像 融合层 两个融合策略 相加策略 l1...明明上图结构提到的最后一层的输出是16通道的,如果有这个疑惑的话,看下图 这时因为使用的是DenseBlock,融合层的输入不仅仅只有DC3传递的16通道的特征映射,还有前面C1,DC1和DC2传递的特征映射,刚好是64个 l1

15010

CVPR 提前看:视觉常识的最新研究进展

在这篇文章中,作者提出了一种加法器网络(AdderNet),在放弃卷积运算的同时最大限度地利用加法,即,给定一系列小模板作为「神经网络中的滤波器」,使用 L1-norm 距离计算输入信号和模板之间的差异...CNN 是通过角度来区分不同类别的特征,而使用 L1-norm 距离的 AdderNet 则是通过向不同类别的类中心聚集来区分别不同类别的特征。...由于减法可以通过其补码通过加法实现,因此 L1-norm 距离可以是一种硬件友好的仅具有加法的度量,作者认为,它可以成为构造神经网络的卷积的有效替代方法。 ? 图 1....L1-norm 距离计算的是两个矢量表示的绝对差之和,它不包含乘法运算。此时,相似性计算公式为: ?

45610
领券