必威体育Betway必威体育官网
当前位置:首页 > IT技术

逻辑回归的思想方法

时间:2019-06-27 02:42:11来源:IT技术作者:seo实验室小编阅读:83次「手机版」
 

逻辑回归

逻辑回归的思想

广义线性回归模型的种类

逻辑回归是应用非常非常广泛的分类方法,这里需要注意的是虽然逻辑回归就回归,但是实际上它处理的是分类问题!其实逻辑回归属于广义线性回归模型,广义线性回归模型有很多种类,比较常见的有以下几种,他们的主要区别在于因变量的不同:

  • 当因变量Y的分布是二项分布(特别是0-1分布)的时候,称之为逻辑回归;
  • 当因变量Y的分布是泊松分布,称之为泊松回归;
  • 当因变量Y的分布是负二项分布,称之为负二项回归。

上帝之眼看世界

从上帝的视角来看待分类问题,万事万物的分类自然有其独特的规律,而这个规律是客观存在的,比如说对于一个数据实例X1=(1,2,3,4,5)" role="presentation">X1=(1,2,3,4,5),它的五个特征就决定了它属于0类,而另一个数据实例X2=(6,7,8,9,10)" role="presentation">X2=(6,7,8,9,10),它的五个特征就决定了它属于1类,这是客观存在的。而我们人类想要通过自己的一些算法来把这个客观存在的规律还原出来,因此我们设计了一些算法来尽可能的接近它们本身的规律。这里引用林轩田老师《统计学习基石》里面的一段笔记:

我们输入一个数据集给电脑D=(Xi,Yi)(i=1,2...n)" role="presentation">D=(Xi,Yi)(i=1,2...n),然后电脑根据这个数据集D学习一个模型patteng" role="presentation">patteng,显然这个模型g" role="presentation">g与数据集D" role="presentation">D的原始生成模型f" role="presentation">f是有差别的,但是我们希望这个g" role="presentation">g很接近真实的模型f" role="presentation">f,然后我们再通过g" role="presentation">g对新的实例进行预测。

逻辑回归也跟大多数机器学习算法一样,我们想要通过已知的训练集D=(Xi,Yi)(i=1,2...n)" role="presentation">D=(Xi,Yi)i=1,2...n来得到上帝之眼能够看到的那个数据集客观存在的分布,从而对新的实例准确分类。

人类之眼看世界

我们虽然知道这些数据集有其客观存在的分布,但是我们想要100%准确的找到这个分布还是很困难的,我们想到的方法就是给每个特征乘上一个系数,得到每个实例的分数score,然后把这个score带入一个叫做sigmoid的函数里面,得到的数值就是该实例分到1类的概率,当这个概率大于0.5的时候就分到1类,反之分到0类。显然这些都是人为规定 的,与客观规律是有差距的。用公式表示就是这样:

score:z=∑i=1nwixi" role="presentation">scorez=i=1nwixi

sigmoid:f(z)=11+e−z" role="presentation">sigmoidf(z)=11+ez

这些就是人类建立的模型,那么现在最关键的地方就是根据我们已有的数据集D来算出wi" role="presentation">wi,一旦我们得到了这些系数,对于新的实例我们就可以直接带入上面两个式子计算,从而按照我们自己建立的模型来对新的实例进行分类。

逻辑回归的算法

如何计算这些参数wi" role="presentation">wi?

这里有两个思路来计算:①损失函数法;②最大似然估计法。

1、损失函数法:在机器学习的算法中,损失函数出现的相当频繁。常见的损失函数有四种:

  • 0—1损失函数:比如感知机算法中用到的损失函数就是0-1损失函数

    L(yi,yi^)={0(yi=yi^)1(yi≠yi^)" role="presentation">Lyiyi^={0(yi=yi^1(yiyi^

  • 绝对值损失函数:

    L(yi,yi^)=∑i=1n|yi−yi^|" role="presentation">Lyiyi^=i=1n|yiyi^|

  • 平方损失函数:

    L(yi,yi^)=∑i=1n(yi−yi^)2" role="presentation">Lyiyi^=i=1n(yiyi^)2

  • 对数损失函数:这种损失函数用的不多,在逻辑回归里面用到了。

    L(yi,P(Y|X))={−logP(Y|X)yi=1−log[1−P(Y|X)]yi=0" role="presentation">LyiP(Y|X)={logP(Y|X)yi=1log[1P(Y|X)]yi=0

    注:上面表达式中yi" role="presentation">yi表示的是第i个实例的真实数值或者真实分类,而yi^" role="presentation">yi^表示的是预测的数值或者分类,P(Y|X)表示的是实例X经过计算之后得到的分类为Y的几率。需要特别说明的是对数损失函数的理解:

    因为概率P(Y|X)的取值为[0,1],所以对数损失函数的图像如图:

    y_{i}=1时

    这里写图片描述

    从图像中可以看出来当yi=1" role="presentation">yi=1即样本真实的分类是1类是,我们计算得到的P(Y|X)" role="presentation">P(Y|X)这个概率越接近1,损失就越小,当其值刚好也为1时,损失函数为0,;当我们计算得到的P(Y|X)" role="presentation">P(Y|X)这个概率越接近0,损失也就越大。同样,当真实的分类yi=0" role="presentation">yi=0时,若我们计算的P(Y|X)越接近0,我们的损失函数就越小,越接近1损失函数就越大。

基于这个思路,我们就可以构造出逻辑回归的损失函数,然后根据最优化理论来计算系数wi" role="presentation">wi,损失函数我们可以构造为:

L(w)=−∑i=1n[yilog(P(Y|xi))+(1−yi)log(1−P(Y|xi))]" role="presentation">L(w)=i=1n[yilog(P(Y|xi))+(1yi)log(1P(Y|xi))]

然后需要计算的就是当损失函数L(w)最小的时候,我们的参数是什么样的,我们用梯度下降法就可以求解。这里就不赘述了。

2、最大似然估计法:

在统计学中,最大似然估计法用的特别多,主要用在参数估计中。但是为什么最大似然法能够用来估计参数?我们虽然学习了最大似然估计法很多年,但是一直没有领会这个方法的精髓。在这里给出本人的一点理解,希望对读者有一定的启发:

  • 客观规律无处不在,但是只有上帝之眼才能看到!
  • 我们能做的只是通过抽样然后计算来尽可能的还原这种客观规律。

    举个简单的例子,一个袋子里有一堆球(包括黑球和白球),但是我们不知道黑球和白球的比例p(但是这个p的确是客观已经存在了的),于是我们就进行了有放回的10次抽样,结果抽到了9个黑球1个白球,我们如何来估计p呢?我们现在有的结论是:

    P(抽到9个黑球1个白球)=p9(1−p)1" role="presentation">P91=p9(1p)1

    ,最可能出现我们实验结果的情况自然是P(抽到9个黑球1个白球)取到最大值的时候。当P(抽到9个黑球1个白球)取到最大值的时候算出的p也就是最可能的黑白球比例。

在逻辑回归中,我们将计算得到的score带入sigmoid函数中得到样本分到1类时候的概率,这个就类似于我们上面摸球实验中的一次摸球,用公式可以表示为:

P(yi=1|X=xi)=f(z)" role="presentation">P(yi=1|X=xi)=f(z)

P(yi=0|X=xi)=1−f(z)" role="presentation">P(yi=0|X=xi)=1f(z)

两个式子合并就可以写成:

P(yi|X=xi)=[f(z)]yi[1−f(z)]1−yi" role="presentation">P(yi|X=xi)=[f(z)]yi[1f(z)]1yi

其中z=∑i=0nwixi,f(z)=11+e−z" role="presentation">z=i=0nwixifz=11+ez

这个式子其实很好理解,分别带入yi=1或者0" role="presentation">yi=10就可以得到上面两个分开写的式子,而这个式子可以表示成一次实验中,对于实例xi" role="presentation">xi我们计算得到的它属于1类的概率值是多少。

因此我们进行了这样的n次实验,可以构造如下最大似然函数:

L(w)=∏i=1n[f(z)]yi[1−f(z)]1−yi" role="presentation">L(w)=i=1n[f(z)]yi[1f(z)]1yi

该式两边同时取对数,就可以得到对数似然函数:

l(w)=logL(w)=∑i=1n[yilog(f(z))+(1−yi)log(1−f(z))]" role="presentation">l(w)=logL(w)=i=1n[yilog(f(z))+(1yi)log(1f(z))]

然后求l(w)" role="presentation">l(w)取最大值时候的参数w,我们就可以认为这个求得的参数w是最接近于上帝之眼看到的那个客观存在的w。之后求最大值用到的方法是梯度上升算法。

我们将两种方法比较一下可以发现,用损失函数法得到的目标函数和用最大似然估计法得到的目标函数只相差了一个符号,所以两个方法的出发点不一样,但是得到的结果是一样的。

相关阅读

分享到:

栏目导航

推荐阅读

热门阅读