ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
# 11 -- Linear Models for Classification 上一节课,我们介绍了Logistic Regression问题,建立cross-entropy error,并提出使用梯度下降算法gradient descnt来获得最好的logistic hypothesis。本节课继续介绍使用线性模型来解决分类问题。 ### **一、Linear Models for Binary Classification** 之前介绍几种线性模型都有一个共同点,就是都有样本特征x的加权运算,我们引入一个线性得分函数s: 三种线性模型,第一种是linear classification。线性分类模型的hypothesis为![](https://img.kancloud.cn/ab/a6/aba626de8d652cf3f7ad0be019e51487_104x18.jpg),取值范围为{-1,+1}两个值,它的err是0/1的,所以对应的![](https://img.kancloud.cn/38/c5/38c5fb73e6a2346c8d7a29e992a7421c_48x18.jpg)是离散的,并不好解,这是个NP-hard问题。第二种是linear regression。线性回归模型的hypothesis为![](https://img.kancloud.cn/aa/c7/aac77e05910407ded2dd73b9afc7722b_60x18.jpg),取值范围为整个实数空间,它的err是squared的,所以对应的![](https://img.kancloud.cn/38/c5/38c5fb73e6a2346c8d7a29e992a7421c_48x18.jpg)是开口向上的二次曲线,其解是closed-form的,直接用线性最小二乘法求解即可。第三种是logistic regression。逻辑回归模型的hypothesis为![](https://img.kancloud.cn/4c/9c/4c9c0dcaf18968131d56df27f160c6ee_80x18.jpg),取值范围为(-1,1)之间,它的err是cross-entropy的,所有对应的![](https://img.kancloud.cn/38/c5/38c5fb73e6a2346c8d7a29e992a7421c_48x18.jpg)是平滑的凸函数,可以使用梯度下降算法求最小值。 ![这里写图片描述](https://img.kancloud.cn/7f/ed/7fed7bc8ba38bb6ae551f4791d48db37_566x210.jpg) 从上图中,我们发现,linear regression和logistic regression的error function都有最小解。那么可不可以用这两种方法来求解linear classification问题呢?下面,我们来对这三种模型的error function进行分析,看看它们之间有什么联系。 对于linear classification,它的error function可以写成: 对于linear regression,它的error function可以写成: 对于logistic regression,它的error function可以写成: 上述三种模型的error function都引入了ys变量,那么ys的物理意义是什么?ys就是指分类的正确率得分,其值越大越好,得分越高。 ![这里写图片描述](https://img.kancloud.cn/ff/50/ff50c9d9ee37ec8c0ddede3c87c4db62_566x252.jpg) 下面,我们用图形化的方式来解释三种模型的error function到底有什么关系: ![这里写图片描述](https://img.kancloud.cn/7b/9e/7b9ef65021454ddf9864157741b57e39_566x330.jpg) 从上图中可以看出,ys是横坐标轴,![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)是呈阶梯状的,在ys>0时,![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)恒取最小值0。![](https://img.kancloud.cn/a0/b3/a0b31fbc4643e27f3bf72823366768e1_48x12.jpg)呈抛物线形式,在ys=1时,取得最小值,且在ys=1左右很小区域内,![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)和![](https://img.kancloud.cn/a0/b3/a0b31fbc4643e27f3bf72823366768e1_48x12.jpg)近似。![](https://img.kancloud.cn/10/15/10155896527ea6410125cee04910d6e5_41x10.jpg)是呈指数下降的单调函数,ys越大,其值越小。同样在ys=1左右很小区域内,![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)和![](https://img.kancloud.cn/10/15/10155896527ea6410125cee04910d6e5_41x10.jpg)近似。但是我们发现![](https://img.kancloud.cn/10/15/10155896527ea6410125cee04910d6e5_41x10.jpg)并不是始终在![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)之上,所以为了计算讨论方便,我们把![](https://img.kancloud.cn/10/15/10155896527ea6410125cee04910d6e5_41x10.jpg)做幅值上的调整,引入![](https://img.kancloud.cn/6e/4f/6e4f665778c74d3f54e60f142c4053b0_295x35.jpg),这样能保证![](https://img.kancloud.cn/de/cd/decdaaa37689750c739b2b641e6d6dd8_48x10.jpg)始终在![](https://img.kancloud.cn/e0/44/e044308c73d4b4eac418bac8fd3a5a82_39x13.jpg)上面,如下图所示: ![这里写图片描述](https://img.kancloud.cn/b1/30/b130fccb088e2c438136e4d4bd7add2a_566x330.jpg) 由上图可以看出: 那么由VC理论可以知道: 从0/1出发: 从CE出发: ![这里写图片描述](https://img.kancloud.cn/8a/94/8a94596c7b2eec5633a454af04d00e42_566x367.jpg) 通过上面的分析,我们看到err 0/1是被限定在一个上界中。这个上界是由logistic regression模型的error function决定的。而linear regression其实也是linear classification的一个upper bound,只是随着sy偏离1的位置越来越远,linear regression的error function偏差越来越大。综上所述,linear regression和logistic regression都可以用来解决linear classification的问题。 下图列举了PLA、linear regression、logistic regression模型用来解linear classification问题的优点和缺点。通常,我们使用linear regression来获得初始化的![](https://img.kancloud.cn/63/a9/63a9ea9b3d4d11d88fb6223985211c0a_18x10.jpg),再用logistic regression模型进行最优化解。 ![这里写图片描述](https://img.kancloud.cn/7b/bb/7bbbee71f5a5e953aae75b3fe2b54be1_566x292.jpg) ### **二、Stochastic Gradient Descent** 之前介绍的PLA算法和logistic regression算法,都是用到了迭代操作。PLA每次迭代只会更新一个点,它每次迭代的时间复杂度是O(1);而logistic regression每次迭代要对所有N个点都进行计算,它的每时间复杂度是O(N)。为了提高logistic regression中gradient descent算法的速度,可以使用另一种算法:随机梯度下降算法(Stochastic Gradient Descent)。 随机梯度下降算法每次迭代只找到一个点,计算该点的梯度,作为我们下一步更新w的依据。这样就保证了每次迭代的计算量大大减小,我们可以把整体的梯度看成这个随机过程的一个期望值。 ![这里写图片描述](https://img.kancloud.cn/90/1a/901a13d730b7f11d046118b6d48a39ff_566x360.jpg) 随机梯度下降可以看成是真实的梯度加上均值为零的随机噪声方向。单次迭代看,好像会对每一步找到正确梯度方向有影响,但是整体期望值上看,与真实梯度的方向没有差太多,同样能找到最小值位置。随机梯度下降的优点是减少计算量,提高运算速度,而且便于online学习;缺点是不够稳定,每次迭代并不能保证按照正确的方向前进,而且达到最小值需要迭代的次数比梯度下降算法一般要多。 ![这里写图片描述](https://img.kancloud.cn/79/d6/79d6bbcf981a01e8cbf7b3c2ccfa75e8_566x174.jpg) 对于logistic regression的SGD,它的表达式为: 我们发现,SGD与PLA的迭代公式有类似的地方,如下图所示: ![这里写图片描述](https://img.kancloud.cn/f7/5c/f75c31f73720a5e3d7a557ce5da73024_566x132.jpg) 我们把SGD logistic regression称之为’soft’ PLA,因为PLA只对分类错误的点进行修正,而SGD logistic regression每次迭代都会进行或多或少的修正。另外,当![](https://img.kancloud.cn/8d/50/8d502b471c77d4535bbf91eb97e0fda6_38x15.jpg),且![](https://img.kancloud.cn/f6/88/f6887809b6229fa2da28481b265c0a75_38x18.jpg)足够大的时候,PLA近似等于SGD。 ![这里写图片描述](https://img.kancloud.cn/ee/e1/eee10a912766138933a7175d4c6617e8_566x59.jpg) 除此之外,还有两点需要说明:1、SGD的终止迭代条件。没有统一的终止条件,一般让迭代次数足够多;2、学习速率![](https://img.kancloud.cn/fa/a8/faa8fa58ba31bedd69c7f03b2b3885e9_9x10.jpg)。![](https://img.kancloud.cn/fa/a8/faa8fa58ba31bedd69c7f03b2b3885e9_9x10.jpg)的取值是根据实际情况来定的,一般取值0.1就可以了。 ### **三、Multiclass via Logistic Regression** 之前我们一直讲的都是二分类问题,本节主要介绍多分类问题,通过linear classification来解决。假设平面上有四个类,分别是正方形、菱形、三角形和星形,如何进行分类模型的训练呢? 首先我们可以想到这样一个办法,就是先把正方形作为正类,其他三种形状都是负类,即把它当成一个二分类问题,通过linear classification模型进行训练,得出平面上某个图形是不是正方形,且只有{-1,+1}两种情况。然后再分别以菱形、三角形、星形为正类,进行二元分类。这样进行四次二分类之后,就完成了这个多分类问题。 ![这里写图片描述](https://img.kancloud.cn/44/e6/44e601556fee0b061018d54bc41a0e9d_566x378.jpg) 但是,这样的二分类会带来一些问题,因为我们只用{-1,+1}两个值来标记,那么平面上某些可能某些区域都被上述四次二分类模型判断为负类,即不属于四类中的任何一类;也可能会出现某些区域同时被两个类甚至多个类同时判断为正类,比如某个区域又判定为正方形又判定为菱形。那么对于这种情况,我们就无法进行多类别的准确判断,所以对于多类别,简单的binary classification不能解决问题。 针对这种问题,我们可以使用另外一种方法来解决:soft软性分类,即不用{-1,+1}这种binary classification,而是使用logistic regression,计算某点属于某类的概率、可能性,去概率最大的值为那一类就好。 soft classification的处理过程和之前类似,同样是分别令某类为正,其他三类为负,不同的是得到的是概率值,而不是{-1,+1}。最后得到某点分别属于四类的概率,取最大概率对应的哪一个类别就好。效果如下图所示: ![这里写图片描述](https://img.kancloud.cn/00/b9/00b98d4930d15bf47360fbdd6551ae56_566x454.jpg) 这种多分类的处理方式,我们称之为One-Versus-All(OVA) Decomposition。这种方法的优点是简单高效,可以使用logistic regression模型来解决;缺点是如果数据类别很多时,那么每次二分类问题中,正类和负类的数量差别就很大,数据不平衡unbalanced,这样会影响分类效果。但是,OVA还是非常常用的一种多分类算法。 ![这里写图片描述](https://img.kancloud.cn/35/e7/35e7f99a3e8450ec8be54f6de5c8fdcc_566x383.jpg) ### **四、Multiclass via Binary Classification** 上一节,我们介绍了多分类算法OVA,但是这种方法存在一个问题,就是当类别k很多的时候,造成正负类数据unbalanced,会影响分类效果,表现不好。现在,我们介绍另一种方法来解决当k很大时,OVA带来的问题。 这种方法呢,每次只取两类进行binary classification,取值为{-1,+1}。假如k=4,那么总共需要进行![](https://img.kancloud.cn/c1/63/c163fab93d7992da47b0ea5cf62e6642_49x18.jpg)次binary classification。那么,六次分类之后,如果平面有个点,有三个分类器判断它是正方形,一个分类器判断是菱形,另外两个判断是三角形,那么取最多的那个,即判断它属于正方形,我们的分类就完成了。这种形式就如同k个足球对进行单循环的比赛,每场比赛都有一个队赢,一个队输,赢了得1分,输了得0分。那么总共进行了![](https://img.kancloud.cn/03/c5/03c5934ce7ddcb7eaa508ffd64fcbff7_19x18.jpg)次的比赛,最终取得分最高的那个队就可以了。 ![这里写图片描述](https://img.kancloud.cn/2f/dc/2fdcb964602a651e97f4d2948f49f32e_566x401.jpg) 这种区别于OVA的多分类方法叫做One-Versus-One(OVO)。这种方法的优点是更加高效,因为虽然需要进行的分类次数增加了,但是每次只需要进行两个类别的比较,也就是说单次分类的数量减少了。而且一般不会出现数据unbalanced的情况。缺点是需要分类的次数多,时间复杂度和空间复杂度可能都比较高。 ![这里写图片描述](https://img.kancloud.cn/2a/ea/2aea7830f4cd2c4fea7a35802135a2ed_566x377.jpg) ### **五、总结** 本节课主要介绍了分类问题的三种线性模型:linear classification、linear regression和logistic regression。首先介绍了这三种linear models都可以来做binary classification。然后介绍了比梯度下降算法更加高效的SGD算法来进行logistic regression分析。最后讲解了两种多分类方法,一种是OVA,另一种是OVO。这两种方法各有优缺点,当类别数量k不多的时候,建议选择OVA,以减少分类次数。 **_注明:_** 文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程