博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
贝叶斯先验解释l1正则和l2正则区别
阅读量:6933 次
发布时间:2019-06-27

本文共 367 字,大约阅读时间需要 1 分钟。

这里讨论机器学习中L1正则和L2正则的区别。

在线性回归中我们最终的loss function如下:

那么如果我们为w增加一个高斯先验,假设这个先验分布是协方差为 \alpha 的零均值高斯先验。我们在进行最大似然:

 

 

这个东西不就是我们说的加了L2正则的loss function吗?

 同理我们如果为w加上拉普拉斯先验,就可以求出最后的loss function也就是我们平时说的加了L1正则:

因为拉普拉斯的分布相比高斯要更陡峭,它们的分布类似下图,红色表示拉普拉斯,黑色表示高斯

 

可以看出拉普拉斯的小w的数目要比高斯的多,w的分布陡峭,而高斯的w分布较为均匀。也就是说,l1正则化更容易获得稀疏解,还可以挑选重要特征。l2正则有均匀化w的作用。

转载于:https://www.cnblogs.com/dylan9/p/8716839.html

你可能感兴趣的文章
FlashBuilder(FB/eclipse) 打开多个无效
查看>>
广播的接收与处理
查看>>
理解Kubernetes(2): 应用的各种访问方式
查看>>
由浅入深CIL系列【目录索引】+ PostSharp AOP编程【目录索引】
查看>>
js禁止用户右键等操作
查看>>
oracle表空间压缩
查看>>
Apache Spark Jobs 性能调优
查看>>
C# HashTable的用法总结
查看>>
如何在本机搭建SVN服务器【转】
查看>>
Oracle开发常用函数与存储过程
查看>>
修改PHP上传文件大小限制的方法
查看>>
OLAP与OLTP介绍
查看>>
Mac 安装md5sum等
查看>>
memcached client --ref
查看>>
MyBatis魔法堂:ResultMap详解
查看>>
《基于Windows 7特性的程序开发系列》视频分享
查看>>
SilverLight.3-Validation:二、银光验证。TheLabel、TheDescriptionViewer和TheValidationSummary...
查看>>
二叉树的非递归遍历(递归和非递归)
查看>>
第 13 章 编码风格
查看>>
WPF 浏览PDF 文件
查看>>