# 12 -- Nonlinear Transformation
上一节课,我们介绍了分类问题的三种线性模型,可以用来解决binary classification和multiclass classification问题。本节课主要介绍非线性的模型来解决分类问题。
### **一、Quadratic Hypothesis**
之前介绍的线性模型,在2D平面上是一条直线,在3D空间中是一个平面。数学上,我们用线性得分函数s来表示:![](https://img.kancloud.cn/a2/95/a295d931a09ff4bc1bd83aa4b7b6454e_59x14.jpg)。其中,x为特征值向量,w为权重,s是线性的。
![这里写图片描述](https://img.kancloud.cn/4b/d4/4bd4fca26cdab862a2e593d3466423ae_326x336.jpg)
线性模型的优点就是,它的VC Dimension比较小,保证了![](https://img.kancloud.cn/20/fb/20fb42022bbd4be133366b923dd6b2aa_75x14.jpg)。但是缺点也很明显,对某些非线性问题,可能会造成![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)很大,虽然![](https://img.kancloud.cn/20/fb/20fb42022bbd4be133366b923dd6b2aa_75x14.jpg),但是也造成![](https://img.kancloud.cn/dd/0f/dd0f9962b91f91dfa644b8d9c6d853d2_29x14.jpg)很大,分类效果不佳。
![这里写图片描述](https://img.kancloud.cn/8d/23/8d238a5d88764a5ab5260fed03f8c14b_325x337.jpg)
为了解决线性模型的缺点,我们可以使用非线性模型来进行分类。例如数据集D不是线性可分的,而是圆形可分的,圆形内部是正类,外面是负类。假设它的hypotheses可以写成:
基于这种非线性思想,我们之前讨论的PLA、Regression问题都可以有非线性的形式进行求解。
![这里写图片描述](https://img.kancloud.cn/e0/ae/e0ae4ffd073c93de31636ca88254e0fa_566x436.jpg)
下面介绍如何设计这些非线性模型的演算法。还是上面介绍的平面圆形分类例子,它的h(x)的权重w0=0.6,w1=-1,w2=-1,但是h(x)的特征不是线性模型的![](https://img.kancloud.cn/08/e6/08e6b5c7ff2c8c7f852acac76e8417df_65x18.jpg),而是![](https://img.kancloud.cn/c6/30/c6305085b59b9394b7fa2e8f62dd7662_65x19.jpg)。我们令![](https://img.kancloud.cn/8a/3c/8a3c8fb13289f8e6970b9a029a64dd3d_43x15.jpg),![](https://img.kancloud.cn/4f/44/4f4446102af397ab5f8329b9226dadf0_51x19.jpg),![](https://img.kancloud.cn/fd/3a/fd3ac417e17699ffe0ad107499695b1e_51x18.jpg),那么,h(x)变成:
这种![](https://img.kancloud.cn/c2/ab/c2abec4e24261a01dd68624c374eb9df_58x12.jpg)的转换可以看成是x空间的点映射到z空间中去,而在z域中,可以用一条直线进行分类,也就是从x空间的圆形可分映射到z空间的线性可分。z域中的直线对应于x域中的圆形。因此,我们把![](https://img.kancloud.cn/c2/ab/c2abec4e24261a01dd68624c374eb9df_58x12.jpg)这个过程称之为特征转换(Feature Transform)。通过这种特征转换,可以将非线性模型转换为另一个域中的线性模型。
![这里写图片描述](https://img.kancloud.cn/c7/f8/c7f845c6b04a2337f98428797c68a2aa_566x192.jpg)
已知x域中圆形可分在z域中是线性可分的,那么反过来,如果在z域中线性可分,是否在x域中一定是圆形可分的呢?答案是否定的。由于权重向量w取值不同,x域中的hypothesis可能是圆形、椭圆、双曲线等等多种情况。
![这里写图片描述](https://img.kancloud.cn/23/74/237408120a2cd95411ebea57ceada470_566x260.jpg)
目前讨论的x域中的圆形都是圆心过原点的,对于圆心不过原点的一般情况,![](https://img.kancloud.cn/c2/ab/c2abec4e24261a01dd68624c374eb9df_58x12.jpg)映射公式包含的所有项为:
也就是说,对于二次hypothesis,它包含二次项、一次项和常数项1,z域中每一条线对应x域中的某二次曲线的分类方式,也许是圆,也许是椭圆,也许是双曲线等等。那么z域中的hypothesis可以写成:
![这里写图片描述](https://img.kancloud.cn/a0/00/a000d361843eafa6df9fdcd4655eab60_566x55.jpg)
### **二、Nonlinear Transform**
上一部分我们定义了什么了二次hypothesis,那么这部分将介绍如何设计一个好的二次hypothesis来达到良好的分类效果。那么目标就是在z域中设计一个最佳的分类线。
![这里写图片描述](https://img.kancloud.cn/e9/41/e941e010ebd1d87702ca21d8931a3bb9_566x340.jpg)
其实,做法很简单,利用映射变换的思想,通过映射关系,把x域中的最高阶二次的多项式转换为z域中的一次向量,也就是从quardratic hypothesis转换成了perceptrons问题。用z值代替x多项式,其中向量z的个数与x域中x多项式的个数一致(包含常数项)。这样就可以在z域中利用线性分类模型进行分类训练。训练好的线性模型之后,再将z替换为x的多项式就可以了。具体过程如下:
![这里写图片描述](https://img.kancloud.cn/81/78/81788862b0e0fba3ecd1f544de06ae2f_566x471.jpg)
整个过程就是通过映射关系,换个空间去做线性分类,重点包括两个:
* 特征转换
* 训练线性模型
其实,我们以前处理机器学习问题的时候,已经做过类似的特征变换了。比如数字识别问题,我们从原始的像素值特征转换为一些实际的concrete特征,比如密度、对称性等等,这也用到了feature transform的思想。
![这里写图片描述](https://img.kancloud.cn/c6/21/c62170a8f723135673a26a67dc2c0629_566x343.jpg)
### **三、Price of Nonlinear Transform**
若x特征维度是d维的,也就是包含d个特征,那么二次多项式个数,即z域特征维度是:
如果x特征维度是2维的,即![](https://img.kancloud.cn/38/cf/38cfe08de974277abe033586b0d15c72_49x18.jpg),那么它的二次多项式为![](https://img.kancloud.cn/3a/38/3a3892427e9717bde81c8c81ce4472d3_149x19.jpg),有6个。
现在,如果阶数更高,假设阶数为Q,那么对于x特征维度是d维的,它的z域特征维度为:
由上式可以看出,计算z域特征维度个数的时间复杂度是Q的d次方,随着Q和d的增大,计算量会变得很大。同时,空间复杂度也大。也就是说,这种特征变换的一个代价是计算的时间、空间复杂度都比较大。
![这里写图片描述](https://img.kancloud.cn/11/45/114570b85fd24f0cc16c21cee7b06411_566x359.jpg)
另一方面,z域中特征个数随着Q和d增加变得很大,同时权重w也会增大,即自由度增加,VC Dimension增大。令z域中的特征维度是![](https://img.kancloud.cn/af/75/af75102c87405cf5107f40bc4fa16d48_37x17.jpg),则在在域中,任何![](https://img.kancloud.cn/90/76/90766458d0c402dee9490ad73ded587f_37x17.jpg)的输入都不能被shattered;同样,在x域中,任何![](https://img.kancloud.cn/90/76/90766458d0c402dee9490ad73ded587f_37x17.jpg)的输入也不能被shattered。![](https://img.kancloud.cn/35/05/3505cd8070d68d0f72c7bd3ada135c70_36x17.jpg)是VC Dimension的上界,如果![](https://img.kancloud.cn/35/05/3505cd8070d68d0f72c7bd3ada135c70_36x17.jpg)很大的时候,相应的VC Dimension就会很大。根据之前章节课程的讨论,VC Dimension过大,模型的泛化能力会比较差。
![这里写图片描述](https://img.kancloud.cn/20/cc/20cc13d008f99218b72384a7caa29211_566x213.jpg)
下面通过一个例子来解释为什么VC Dimension过大,会造成不好的分类效果:
![这里写图片描述](https://img.kancloud.cn/f8/fe/f8fe135044799bc0d5fed592ea2384af_566x332.jpg)
上图中,左边是用直线进行线性分类,有部分点分类错误;右边是用四次曲线进行非线性分类,所有点都分类正确,那么哪一个分类效果好呢?单从平面上这些训练数据来看,四次曲线的分类效果更好,但是四次曲线模型很容易带来过拟合的问题,虽然它的![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)比较小,从泛化能力上来说,还是左边的分类器更好一些。也就是说VC Dimension过大会带来过拟合问题,![](https://img.kancloud.cn/35/05/3505cd8070d68d0f72c7bd3ada135c70_36x17.jpg)不能太大了。
那么如何选择合适的Q,来保证不会出现过拟合问题,使模型的泛化能力强呢?一般情况下,为了尽量减少特征自由度,我们会根据训练样本的分布情况,人为地减少、省略一些项。但是,这种人为地删减特征会带来一些“自我分析”代价,虽然对训练样本分类效果好,但是对训练样本外的样本,不一定效果好。所以,一般情况下,还是要保存所有的多项式特征,避免对训练样本的人为选择。
![这里写图片描述](https://img.kancloud.cn/df/70/df70da2d691d5ecd28512f262452b71d_566x271.jpg)
### **四、Structured Hypothesis Sets**
下面,我们讨论一下从x域到z域的多项式变换。首先,如果特征维度只有1维的话,那么变换多项式只有常数项:
如果特征维度是两维的,变换多项式包含了一维的![](https://img.kancloud.cn/88/dd/88dd762960411c6ce2a45513e5596c0a_38x18.jpg):
如果特征维度是三维的,变换多项式包含了二维的![](https://img.kancloud.cn/c7/97/c797f8a904ed5cd4fa006cd050245bdf_38x18.jpg):
以此类推,如果特征维度是Q次,那么它的变换多项式为:
那么对于不同阶次构成的hypothesis有如下关系:
我们把这种结构叫做Structured Hypothesis Sets:
![这里写图片描述](https://img.kancloud.cn/50/da/50dad7df857f541311ade3f027170a94_566x150.jpg)
那么对于这种Structured Hypothesis Sets,它们的VC Dimension满足下列关系:
它的![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)满足下列关系:
![这里写图片描述](https://img.kancloud.cn/cb/2b/cb2bf89c9d557fe735fdfd4419dff290_566x382.jpg)
从上图中也可以看到,随着变换多项式的阶数增大,虽然![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)逐渐减小,但是model complexity会逐渐增大,造成![](https://img.kancloud.cn/dd/0f/dd0f9962b91f91dfa644b8d9c6d853d2_29x14.jpg)很大,所以阶数不能太高。
那么,如果选择的阶数很大,确实能使![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)接近于0,但是泛化能力通常很差,我们把这种情况叫做tempting sin。所以,一般最合适的做法是先从低阶开始,如先选择一阶hypothesis,看看![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)是否很小,如果![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)足够小的话就选择一阶,如果![](https://img.kancloud.cn/5b/cf/5bcf9eebe555c8380ea4c84aea710839_23x14.jpg)大的话,再逐渐增加阶数,直到满足要求为止。也就是说,尽量选择低阶的hypothes,这样才能得到较强的泛化能力。
![这里写图片描述](https://img.kancloud.cn/9a/dd/9adddeb7c65e583081803b6c57db5a12_566x199.jpg)
### **五、总结**
这节课主要介绍了非线性分类模型,通过非线性变换,将非线性模型映射到另一个空间,转换为线性模型,再来进行线性分类。本节课完整介绍了非线性变换的整体流程,以及非线性变换可能会带来的一些问题:时间复杂度和空间复杂度的增加。最后介绍了在要付出代价的情况下,使用非线性变换的最安全的做法,尽可能使用简单的模型,而不是模型越复杂越好。
**_注明:_**
文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程
- 台湾大学林轩田机器学习笔记
- 机器学习基石
- 1 -- The Learning Problem
- 2 -- Learning to Answer Yes/No
- 3 -- Types of Learning
- 4 -- Feasibility of Learning
- 5 -- Training versus Testing
- 6 -- Theory of Generalization
- 7 -- The VC Dimension
- 8 -- Noise and Error
- 9 -- Linear Regression
- 10 -- Logistic Regression
- 11 -- Linear Models for Classification
- 12 -- Nonlinear Transformation
- 13 -- Hazard of Overfitting
- 14 -- Regularization
- 15 -- Validation
- 16 -- Three Learning Principles
- 机器学习技法
- 1 -- Linear Support Vector Machine
- 2 -- Dual Support Vector Machine
- 3 -- Kernel Support Vector Machine
- 4 -- Soft-Margin Support Vector Machine
- 5 -- Kernel Logistic Regression
- 6 -- Support Vector Regression
- 7 -- Blending and Bagging
- 8 -- Adaptive Boosting
- 9 -- Decision Tree
- 10 -- Random Forest
- 11 -- Gradient Boosted Decision Tree
- 12 -- Neural Network
- 13 -- Deep Learning
- 14 -- Radial Basis Function Network
- 15 -- Matrix Factorization
- 16(完结) -- Finale