为什么在机器学习分类中使用逻辑回归?
介绍
逻辑回归是一种常用的机器学习二元分类算法。尽管名称中包含“回归”一词,但它实际上是一种分类算法。它使用对数几率,并以对数损失或交叉熵损失作为代价函数。
在本文中,让我们看看为什么逻辑回归本质上是一种分类算法。
逻辑回归作为一种分类算法
线性回归算法可以用线性方程表示,例如,具有截距$\mathrm{\alpha_{0}}$和系数$\mathrm{\alpha_{1}}$的单变量回归模型可以写成:
$$\mathrm{y=\alpha_{0}+\alpha_{1}x}$$
线性回归的最佳拟合线如下图所示。
然而,在逻辑回归中,值只能在0和1之间,但在线性回归中,值是连续的,并且根据最佳拟合线可以超过0和1。
这清楚地表明,必须转换线性回归方程,使其适应范围为[0,1]的值。这是通过使用 sigmoid 函数实现的,尤其是在逻辑回归中,它将值压缩在0和1之间。
$$\mathrm{p(x)=\frac{1}{1+e^-({\alpha_{0}+\alpha_{1}}x)}}$$
因此,我们可以使用逻辑回归对两类进行建模。
逻辑函数或 sigmoid 函数是$\mathrm{\frac{1}{1+e^{−t}}}$。对数几率是逻辑函数的倒数。从线性回归方程中,我们看到它可以输出从负无穷大到正无穷大的实数值,以及0,1边界内的值。但是,在我们用 sigmoid 函数转换线性回归方程后,转换后的函数的概率值开始落在0和1之间。这证明了逻辑回归是一种分类算法,不能用于回归。换句话说,逻辑回归根据边界或类别对线性回归的值进行分类。
多类别分类逻辑回归
使用逻辑回归,我们可以实现多类别分类。对于二元和多类别分类,核心思想相同,但在多类别分类中,我们使用一对多分类的概念。根据以下等式,将有多个自变量:
$$\mathrm{\log\frac{p}{1−p}=\alpha_{0}+\alpha_{1}x_{1}+\alpha_{2}x_{2}+\alpha_{3}x_{3}+........+\alpha_{n}x_{n}}$$
在上式中,我们可以看到对数几率的值取决于n个自变量。
结论
逻辑回归是一种分类算法,它输出0和1之间的概率值,而不是连续值。这是由于对线性回归方程应用了 sigmoid 函数转换。逻辑回归可用于二元和多类别分类。