为什么偏差项在岭回归中没有正则化?

Jay*_*raj 10 classification machine-learning

在大多数分类(例如逻辑/线性回归)中,偏差项在正则化时被忽略.如果我们不规范偏见项,我们会得到更好的分类吗?

Def*_*_Os 13

例:

Y = aX + b
Run Code Online (Sandbox Code Playgroud)

正规化是基于这样一种观点,即过度拟合Y是由于a"过于具体" 造成的,可以说,这通常表现为大量a的元素.

b仅仅抵消了这种关系,因此它的规模远远不如这个问题重要.此外,如果出于任何原因需要大的偏移量,则使其正常化将阻止找到正确的关系.

所以答案就在于:in Y = aX + b,a与解释变量相乘,b加到它上面.