线性回归中的L1与L2正则化

这篇文章给大家分享的是有关线性回归中的L1与L2正则化的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

成都创新互联专注于企业全网营销推广、网站重做改版、五华网站定制设计、自适应品牌网站建设、H5场景定制电子商务商城网站建设、集团公司官网建设、成都外贸网站建设、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为五华等各大城市提供网站开发制作服务。

为新昌等地区用户提供了全套网页设计制作服务,及新昌网站建设行业解决方案。主营业务为做网站、成都做网站、新昌网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!

描述回归建模中的L1和L2正则化方法。

在处理复杂数据时,我们往往会创建复杂的模型。太复杂并不总是好的。过于复杂的模型就是我们所说的“过拟合”,它们在训练数据上表现很好,但在看不见的测试数据上却表现不佳。

有一种方法可以对损失函数的过拟合进行调整,那就是惩罚。通过惩罚或“正则化”损失函数中的大系数,我们使一些(或所有)系数变小,从而使模型对数据中的噪声不敏感。

在回归中使用的两种流行的正则化形式是L1又名Lasso回归,和L2又名Ridge回归。在线性回归中我们使用普通最小二乘(OLS)是用于拟合数据的:我们对残差(实际值与预测值之间的差异)进行平方,以得到均方误差(MSE)。最小的平方误差,或最小的平方,是最适合的模型。

线性回归中的L1与L2正则化

让我们来看看简单线性回归的成本函数:

线性回归中的L1与L2正则化

对于多元线性回归,成本函数应该是这样的,其中????是预测因子或变量的数量。

线性回归中的L1与L2正则化

因此,随着预测器(????)数量的增加,模型的复杂性也会增加。为了缓解这种情况,我们在这个成本函数中添加了一些惩罚形式。这将降低模型的复杂性,有助于防止过拟合,可能消除变量,甚至减少数据中的多重共线性。

L2 -岭回归

L2或岭回归,将????惩罚项添加到系数大小的平方????。????是一个超参数,这意味着它的值是自由定义的。你可以在成本函数的末端看到它。

线性回归中的L1与L2正则化

加上????惩罚,????系数受到约束,惩罚系数大的代价函数。

L1 -Lasso回归

L1或Lasso回归,几乎是一样的东西,除了一个重要的细节-系数的大小不是平方,它只是绝对值。

线性回归中的L1与L2正则化

在这里,成本函数的最后是????的绝对值,一些系数可以被精确地设置为零,而其他的系数则直接降低到零。当一些系数变为零时,Lasso回归的效果是特别有用的,因为它可以估算成本并同时选择系数。。

还有最重要的一点,在进行任何一种类型的正则化之前,都应该将数据标准化到相同的规模,否则罚款将不公平地对待某些系数。

感谢各位的阅读!关于“线性回归中的L1与L2正则化”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!


网站题目:线性回归中的L1与L2正则化
标题网址:http://scyanting.com/article/iijpsp.html