Min*_*hen 1 machine-learning neural-network supervised-learning deep-learning
那么,在机器学习中,防止过拟合的一种方法是添加 L2 正则化,有人说 L1 正则化更好,这是为什么呢?另外我知道L1是用来保证数据的稀疏性的,这个结果的理论支持是什么?
Sem*_*maz 5
L1 正则化用于稀疏性。这在您处理大数据时尤其有用,因为 L1 可以生成比 L2 正则化更多的压缩模型。这基本上是因为随着正则化参数的增加,您的最优值有更大的可能性为 0。
由于平方,L2 正则化对大数的惩罚更多。当然,L2 在平滑方式上更“优雅”。
你应该检查这个网页
聚苯乙烯
数学上更全面的解释可能不适合本网站,例如您可以尝试其他 Stack Exchange 网站
归档时间:
10 年,5 月 前
查看次数:
1920 次
最近记录:
6 年,4 月 前