首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

特征锦囊:今天一起搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L2-norm,那就是我们的LSE(Least Squares Error,最小二乘误差),其优化的目标函数如下: 针对两者的差异,可以看下表: ?

1.4K40
您找到你想要的搜索结果了吗?
是的
没有找到

【机器学习基础】一文搞懂机器学习里的L1与L2正则化

范数有很多种,我们常见的有L1-norm和L2-norm,其实还有L3-norm、L4-norm等等,所以抽象来表示,我们会写作Lp-norm,一般表示为 : 对于上面这个抽象的公式,如果我们代入p值..., 若p为1,则就是我们常说的L1-norm: 若p为2,则是我们常说的L2-norm: 我们引用文章里的图片,L2-norm的距离就是两个黑点之间的绿线,而另外的3条线,都是L1-norm的大小。...首先,我们从上面那张二维的图可以看出,对于L2-norm,其解是唯一的,也就是绿色的那条;而对于L1-norm,其解不唯一,因此L1正则化项,其计算难度通常会高于L2的。...若使用L2-norm,那就是我们的LSE(Least Squares Error,最小二乘误差),其优化的目标函数如下: 针对两者的差异,可以看下表: ?

2.2K20
领券