一、线性回归和逻辑回归

线性回归 解决的是 回归 问题, 逻辑回归 相当于是线性回归的基础上,来解决 分类 问题。

线性回归(Linear Regression)
在这里插入图片描述
逻辑回归
在这里插入图片描述
从上面两个公式: 逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。

二、sigmoid

sigmoid函数就是:
在这里插入图片描述
函数图像是:

在这里插入图片描述
线性回归 得到大于0的输出, 逻辑回归 就会得到0.5 ~ 1的输出; 线性回归 得到小于0的输出, 逻辑回归 就会得到0 ~ 0.5的输出;

逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。

区别:

1.线性回归用来预测连续的变量(房价预测),逻辑回归用来预测离散的变量(分类,癌症预测)
2. 线性回归是拟合函数,逻辑回归是预测函数
3. 线性回归的参数计算方法是最小二乘法,逻辑回归的参数计算方法是似然估计的方法

附加1:
1)线性回归要求变量服从正态分布,逻辑回归对变量分布没有要求。
2)线性回归要求因变量是连续性数值变量,逻辑回归要求因变量是分类型变量。
3)线性回归要求自变量和因变量呈线性关系,逻辑回归不要求自变量和因变量呈线性关系
4)逻辑回归是分析因变量取某个值的概率与自变量的关系,而线性回归是直接分析因变量与自变量的关系

总之,逻辑回归与线性回归实际上有很多相同之处,最大的区别就在于他们的因变量不同,其他的基本都差不多,正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalized linear model)。这一家族中的模型形式基本上都差不多,不同的就是因变量不同,如果是连续的,就是多重线性回归,如果是二项分布,就是逻辑回归。逻辑回归的因变量可以是二分类的,也可以是多分类的,但是二分类的更为常用,也更加容易解释。所以实际中最为常用的就是二分类的逻辑回归。

附加2:似然估计逻辑回归参数
举个例子,现在我们有了一个训练数据集,是一个二分类问题:
在这里插入图片描述
上面的 C 1 是类别,总共有两个类别。
在这里插入图片描述
似然简单的理解,就是让我们上面的数据集出现的概率最大我们来理解一下:

在这里插入图片描述
样本之间彼此独立,那么上面那个数据集的概率是什么?
是每一个样本的乘积,这个就是似然Likelihood:
在这里插入图片描述
我们希望这个w,b的参数估计值,就是能获得 最大化似然 的那个参数。也就是:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
log又可以把之前的乘积和,转换成加法:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
要找到让这个loss最小的时候的w和b,那怎么找?【梯度下降】
在这里插入图片描述

https://mp.weixin.qq.com/s/cxHzq6Go6yjXO-wC8xpgOg

https://mp.weixin.qq.com/s/HiO8TyY5VpOYwFnCRzyZCw

https://mp.weixin.qq.com/s/Decb3uTKpqSWe6SY6qfKiw

一、线性回归和逻辑回归线性回归解决的是回归问题,逻辑回归相当于是线性回归的基础上,来解决分类问题。线性回归(Linear Regression):逻辑回归:从上面两个公式:逻辑回归可以理解为在线性回归后加了一个sigmoid函数。将线性回归变成一个0~1输出的分类问题。二、sigmoidsigmoid函数就是:函数图像是:线性回归得到大于0的输出,逻辑回归就会得到0.5 ~ 1的输出;线性回归得到小于0的输出,逻辑回归就会得到0 ~ 0.5的输出;三、总结联系:逻辑回归可以理解 其实我在网上搜了很久,想用一句话能够简单易懂的表达出这个概念,但是确实不知道该怎么组织语言。不过相信有一些数学基础的同学应该是能明白的。 我们可以这样认为,世界上所有的问题都可以用公式表达,如果任何问题都是可以用线性模型来描述的,那么我们人人都可以预测未来,因为其模型非常的简单。但是很遗憾,大多数问题都是非线性的。 二. 线性回归
不同之处: 1. 逻辑回归 解决的是分类问题, 线性回归 解决的是回归问题,这是两者最本质的 区别 2. 逻辑回归 中因变量是离散的,而 线性回归 中因变量是连续的这是两者最大的 区别 3在自变量和超参数确定的情况下 逻辑回归 可看作广义的线性模型在因变量下服从二元分布的一个特殊情况 4.使用最小二乘法求解 线性回归 时我们认为因变量服从正态分布 相同之处: 1.二者在求解超参数的过程中都使用梯度下降的方法 2.二者都使用了极大似然估计对训练样本进行建模
其实没有多大的 区别 ,就是 逻辑回归 多了一个Sigmoid函数,使样本能映射到[0,1]之间的数值,用来做分类问题。 简单的例子就是可以使用吴恩达的课程中的例子来解释, 线性回归 用来预测房价,能找到一个公式来尽量拟合房价和影响房价因素之间的关系,最后得到的公式能准确的用来预测房价。在对参数不断调优以找到一组最拟合数据的参数来构成一个最好的模型,就是 线性回归 。 在吴恩达的课程中举了一个癌症的例子 如果我们用 线性回归 来预测癌症的话,可以想象对于这种分类问题, 线性回归 很难找到一个完美拟合数据的模型,而且一些特别的数据
用一组变量的(特征)的线性组合,来建立与结果之间的关系。 模型表达:y(x,w)=w0+w1x1+...+wnxny(x,w)=w0+w1x1+...+wnxny(x, w)=w_0+w_1x_1+...+w_nx_n 逻辑回归 用于分类,而不是回归。 在 线性回归 模型中,输出一般是连续的, 对于每一个输入的x,都有一个对应的输出y。因此模型的定义域和值域都可以是无穷...
线性回归 逻辑回归 是两种常见的统计学习方法,它们在应用场景、模型形式和目标函数等方面有一些 区别 ,下面是它们的主要 区别 : 1. 应用场景: 线性回归 主要用于预测连续型的数值输出,例如房价预测。而 逻辑回归 主要用于解决二分类问题,例如预测一个样本是否属于某个类别。 2. 模型形式: 线性回归 模型是一个线性函数,通过对特征的线性组合来预测输出变量。 逻辑回归 模型通过线性组合后再经过一个非线性的逻辑函数(如Sigmoid函数)来预测概率或分类结果。 3. 目标函数: 线性回归 使用平方损失函数来度量预测值与实际值之间的差异,目标是最小化损失函数。 逻辑回归 使用对数似然损失函数来度量预测概率与实际类别之间的差异,目标是最大化似然函数。 4. 输出范围: 线性回归 的输出是一个连续的数值,可以是任意实数。 逻辑回归 的输出是一个概率值,介于0和1之间,表示样本属于某个类别的概率。 5. 模型解释: 线性回归 模型可以通过回归系数来解释特征对输出的贡献程度,系数的正负可以表示特征与输出的正向或负向关系。 逻辑回归 模型的系数可以表示特征对输出概率的影响程度,但不像 线性回归 那样直接解释特征与输出的关系。 总而言之, 线性回归 逻辑回归 在应用场景、模型形式、目标函数和输出范围等方面存在较大的 区别 线性回归 用于预测连续值, 逻辑回归 用于二分类问题; 线性回归 使用平方损失函数, 逻辑回归 使用对数似然损失函数。这些 区别 使得它们适用于不同类型的问题。
VisibleDeprecationWarning: Creating an ndarray from ragged nested sequences (which is a list-or-tupl 43087