线性回归和逻辑回归之间的差异.为什么逻辑回归称为回归?

sha*_*lki 5 regression classification machine-learning logistic-regression

根据我的理解,线性回归预测可以具有连续值的结果,而逻辑回归预测离散的结果.所以,根据我的Logistic回归类似于分类问题所以为什么称为回归?可能是我理解错误但无法弄清楚这个问题的确切答案.

我看到一些以前的链接也与它们的区别有关,但它并不清楚我的问题:线性回归和逻辑回归之间有什么区别?

man*_*lio 8

线性回归和逻辑回归之间存在严格的联系.

使用线性回归,您正在寻找k i参数:

H =ķ 0 +Σķ ˙X = K ˙X

使用逻辑回归你有相同的目标,但方程是:

H =克(K ˙X)

哪里g双曲线函数:

g(w)= 1 /(1 + e -w)

所以:

H = 1 /(1 + E -K ˙X )

你需要将K与你的数据相匹配.

假设存在二元分类问题,则输出h是该示例x在分类任务中为正匹配的估计概率:

P(Y = 1)= 1 /(1 + E -K ˙X )

当概率大于0.5时,我们可以预测"匹配".

在以下情况下概率大于0.5:

g(w)> 0.5

在以下情况下这是真的:

瓦特= K ˙X≥0

超平面:

ķ ˙X = 0

是决定边界.

综上所述:

  • 逻辑回归是使用相同的线性回归基本公式的广义线性模型,但它对分类结果的概率进行回归.

这是一个非常简略的版本.你可以在这些视频中找到一个简单的解释(Andrew Ng 的机器学习第三周).

您还可以查看http://www.holehouse.org/mlclass/06_Logistic_Regression.html,了解有关课程的一些注意事项.