线性回归和非线性回归之间的区别?

Ram*_*Ram 6 regression machine-learning linear-regression non-linear-regression

在机器学习中,我们说:

  • w 1 x 1 + w 2 x 2 + ... + w n x n线性回归模型,其中w 1,w 2 .... w n是权重,x 1,x 2 ... x 2是功能而:
  • w 1 x 1 2 + w 2 x 2 2 + ... + w n x n 2非线性(多项式)回归模型

然而,在一些讲座我看到有人说一个模型是线性基础上的权重,即权重系数是线性和特征的程度并不重要,无论是直线(X 1)或多项式Λ(x 1 2).真的吗?如何区分线性和非线性模型?它是基于权重还是特征值?

Dan*_*iel 2

两种口味都存在。

如果您在统计社区,通常是前者(特征中的非线性、x^2 或 e^x 等)。例如,请参见此。

在机器学习社区中,重点更多地放在权重上;特征函数可以是任何东西(例如,参见SVM中的内核技巧)。

原因是不同的社区有不同的方法来解决这些类似的问题。统计界有更多直接的分析方法;而机器学习的目标略有不同(在未知的概念空间中建模复杂的模式)。

  • 任何东西,只要它们是可微分的,都可以通过梯度下降(及其近亲)来优化。 (2认同)