那么,在机器学习中,防止过拟合的一种方法是添加 L2 正则化,有人说 L1 正则化更好,这是为什么呢?另外我知道L1是用来保证数据的稀疏性的,这个结果的理论支持是什么?
machine-learning neural-network supervised-learning deep-learning
deep-learning ×1
machine-learning ×1
neural-network ×1
supervised-learning ×1