Fab*_*bio 2 glmnet scikit-learn
特别是,glmnet文档暗示它创建了一个用于回归的高斯族的“广义线性模型”,而 scikit-learn 暗示没有这样的事情(即,似乎它是一个纯粹的线性回归,而不是广义的)。但我不确定这一点。
在您链接到的文档中,有一个优化问题准确显示了 GLMnet 中优化的内容:
1/(2N) * sum_i(y_i - beta_0 - x_i^T beta) + lambda * [(1 - alpha)/2 ||beta||_2^2 + alpha * ||beta||_1]
Run Code Online (Sandbox Code Playgroud)
现在看看这里,你会在那里找到与欧几里德范数优化相同的公式。请注意,文档省略了截距w_0,相当于beta_0,但代码确实估计了它。另请注意,lambda成为alpha和alpha成为rho...
“高斯族”方面可能是指使用 L2 损失的事实,这对应于假设噪声是加性高斯。
| 归档时间: |
|
| 查看次数: |
755 次 |
| 最近记录: |