l1正则化为什么稀疏(特征值重根与秩的关系)

L1正则化与稀疏性L1正则化使得模型参数具有稀疏性的原理是什么?机器学习经典之作《patternrecognitionandmachinelearning》中的第三章作出的一个解释无疑是权威且直观的,我们也经常都是从这个角度出发,来解释L1正则化使得模型参数具有稀疏性的原理。再回顾一下,以二维为例,红色和黄色的部分是L1、L2正则项约束后的解空间,蓝色的等高线是凸优化问题中的目标函数(…

大家好,又见面了,我是你们的朋友全栈君。

L1正则化与稀疏性

L1正则化使得模型参数具有稀疏性的原理是什么?

机器学习经典之作《pattern recognition and machine learning》中的第三章作出的一个解释无疑是权威且直观的,我们也经常都是从这个角度出发,来解释L1正则化使得模型参数具有稀疏性的原理。再回顾一下,以二维为例,红色和黄色的部分是L1、L2正则项约束后的解空间,蓝色的等高线是凸优化问题中的目标函数(未加入正则项的)的等高线,如图所示,L2正则项约束后的解空间是圆形,而L1正则项约束后的解空间是菱形,显然,菱形的解空间更容易在尖角处与等高线碰撞出稀疏解。
在这里插入图片描述
假设原目标函数是 y = ( w 1 − 2 ) 2 + ( w 2 − 2 ) 2 y=(w_1-2)^2+(w_2-2)^2 y=(w12)2+(w22)2
在未加入正则项之前,这个最优解无疑是 ( w 1 = 2 , w 2 = 2 ) (w_1=2,w_2=2) w1=2w2=2
但加入了正则项
y = ( w 1 − 2 ) 2 + ( w 2 − 2 ) 2 + 1 ∗ ( w 1 2 + w 2 2 ) y=(w_1-2)^2+(w_2-2)^2+1*(w_1^2+w_2^2) y=(w12)2+(w22)2+1w12+w22之后但最优解就不再是 ( w 1 = 2 , w 2 = 2 ) (w_1=2,w_2=2) w1=2w2=2
而是 ( w 1 = 1 , w 2 = 1 ) (w_1=1,w_2=1) w1=1w2=1
这是 ( w 1 − 2 ) 2 + ( w 2 − 2 ) 2 = a (w_1-2)^2+(w_2-2)^2=a (w12)2+(w22)2=a w 1 2 + w 2 2 = b w_1^2+w_2^2=b w12+w22=b这两个圆的切点。切点处a=2,b=2,此时正好a=b,这与我们的目标函数取值 y = ( w 1 − 2 ) 2 + ( w 2 − 2 ) 2 y=(w_1-2)^2+(w_2-2)^2 y=(w12)2+(w22)2是个圆形有关,如果是其他形状,不一定有a=b。

上面的解释无疑是正确的,但还不够准确,也就是回答但过于笼统,以至于忽略了几个关键问题,例如,为什么加入正则项就是定义了一个解空间约束,为什么L1、L2正则项的解空间不同。如果第一个问题回答了,第二个问题相对好回答。
其实可以通过kkt条件给出一种解释。
事实上,“带正则化项”和“带约束条件”是等价的,为了约束w的可能取值空间从而防止过拟合。

如果我们为线性回归加上一个约束,就是w的l2范数不能大于m:
m i n ∑ i = 1 N ( y i − w T x i ) 2 s . t . ∣ ∣ w ∣ ∣ 2 < = m (1) min \sum_{i=1}^{N} (y_i-w^{T}x_i)^2\\ s.t. ||w||^2<=m \tag1 mini=1N(yiwTxi)2s.t.w2<=m(1)

为了求解这个带约束条件的不等式,我们会写出拉格朗日函数
∑ i = 1 N ( y i − w T x i ) 2 + λ ( ∣ ∣ w ∣ ∣ 2 − m ) (2) \sum_{i=1}^{N} (y_i-w^{T}x_i)^2+\lambda(||w||^2-m) \tag2 i=1N(yiwTxi)2+λ(w2m)(2)
如果 w ∗ w^{*} w是原问题(1)的解, λ ∗ \lambda^{*} λ是对偶问题(2)的解,
一般都是先求出对偶问题的解 λ ∗ \lambda^{*} λ,然后带入kkt条件中( λ ∗ \lambda^{*} λ w ∗ w^{*} w的关系),就能求出 w ∗ w^{*} w w ∗ w^{*} w也必然是原问题的解。
这里kkt条件是:
0 = m i n ∇ w ( ∑ i = 1 N ( y i − w ∗ T x i ) 2 + λ ∗ ( ∣ ∣ w ∗ ∣ ∣ 2 − m ) ) s . t . 0 < = λ ∗ (3) 0=min \nabla_w(\sum_{i=1}^{N} (y_i-w^{*T}x_i)^2+\lambda^{*}(||w^{*}||^2-m))\\ s.t. 0<=\lambda^{*} \tag3 0=minw(i=1N(yiwTxi)2+λ(w2m))s.t.0<=λ(3)

其中,第一个式子就是带L2正则项的优化问题最优解 w ∗ w^{*} w,而 λ ∗ \lambda^{*} λ是L2正则项前的系数。

这就是为什么带正则化项相当于为参数约束了解空间,且L2正则项为参数约束了一个圆形解空间,L1正则项为参数约束了一个菱形解空间,如果原问题的最优解没有落在解空间的内部,就只能落在解空间的边界上。
而L1正则项为参数约束了一个“棱角分明”的菱形解空间,更容易与目标函数等高线在角点,坐标轴上碰撞,从而产生稀疏性。

看到上面,其实我直接有个疑问,就是“如果我们为线性回归加上一个约束,就是w的l2范数不能大于m”、这句话里的m是个固定的确定值,还是瞎设的值。
后面我的想法是,任意给定一个m值,都能得到一个两圆相切的切点,从而得到其给定m条件下的带正则项的最优解,然后在不同的m值中,再选出某个m值对应的最优解是全局最优解,从而得到最终的最优解。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/128834.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号