ThinkChat2.0新版上线,更智能更精彩,支持会话、画图、阅读、搜索等,送10W Token,即刻开启你的AI之旅 广告
# 8 -- Noise and Error 上一节课,我们主要介绍了VC Dimension的概念。如果Hypotheses set的VC Dimension是有限的,且有足够多N的资料,同时能够找到一个hypothesis使它的![](https://img.kancloud.cn/c9/38/c938ce5f2a3f7dfb47848be0e1a75bfc_54x15.jpg),那么就能说明机器学习是可行的。本节课主要讲了数据集有Noise的情况下,是否能够进行机器学习,并且介绍了假设空间H下演算法A的Error估计。 ### **一、Noise and Probablistic target** 上节课推导VC Dimension的数据集是在没有Noise的情况下,本节课讨论如果数据集本身存在Noise,那VC Dimension的推导是否还成立呢? 首先,Data Sets的Noise一般有三种情况: * **由于人为因素,正类被误分为负类,或者负类被误分为正类;** * **同样特征的样本被模型分为不同的类;** * **样本的特征被错误记录和使用。** ![这里写图片描述](https://img.kancloud.cn/8b/87/8b8710e644a4b18a7beee624614f7304_566x364.jpg) 之前的数据集是确定的,即没有Noise的,我们称之为Deterministic。现在有Noise了,也就是说在某点处不再是确定分布,而是概率分布了,即对每个(x,y)出现的概率是![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)。 因为Noise的存在,比如在x点,有0.7的概率y=1,有0.3的概率y=0,即y是按照![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)分布的。数学上可以证明如果数据集按照![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)概率分布且是iid的,那么以前证明机器可以学习的方法依然奏效,VC Dimension有限即可推断![](https://img.kancloud.cn/d7/ea/d7eaaebc3fc3d622d22ccb9631da8925_30x12.jpg)和![](https://img.kancloud.cn/03/bc/03bc2e6a3c1afb05f5d949aceaee097a_36x11.jpg)是近似的。 ![这里写图片描述](https://img.kancloud.cn/a5/12/a512edee3a7ce4a994ab207f39cbac90_566x396.jpg) ![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)称之为目标分布(Target Distribution)。它实际上告诉我们最好的选择是什么,同时伴随着多少noise。其实,没有noise的数据仍然可以看成“特殊”的![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)概率分布,即概率仅是1和0.对于以前确定的数据集: ![这里写图片描述](https://img.kancloud.cn/ea/99/ea997e5734f021f0050f33bd70688d40_566x359.jpg) 在引入noise的情况下,新的学习流程图如下所示: ![这里写图片描述](https://img.kancloud.cn/5d/55/5d55588564dae34c7fe450f4c552fc19_566x311.jpg) ### **二、ERROR Measure** 机器学习需要考虑的问题是找出的矩g与目标函数f有多相近,我们一直使用![](https://img.kancloud.cn/dd/0f/dd0f9962b91f91dfa644b8d9c6d853d2_29x14.jpg)进行误差的估计,那一般的错误测量有哪些形式呢? 我们介绍的矩g对错误的衡量有三个特性: * **out-of-sample:样本外的未知数据** * **pointwise:对每个数据点x进行测试** * **classification:看prediction与target是否一致,classification error通常称为0/1 error** ![这里写图片描述](https://img.kancloud.cn/9b/22/9b229100e00ba40d4d5847fc46f4dd72_566x202.jpg) PointWise error实际上就是对数据集的每个点计算错误并计算平均,![](https://img.kancloud.cn/d7/ea/d7eaaebc3fc3d622d22ccb9631da8925_30x12.jpg)和![](https://img.kancloud.cn/03/bc/03bc2e6a3c1afb05f5d949aceaee097a_36x11.jpg)的pointwise error的表达式为: ![这里写图片描述](https://img.kancloud.cn/9d/9e/9d9e42a7fa6d0094bc753f971e50c1fa_562x122.jpg) pointwise error是机器学习中最常用也是最简单的一种错误衡量方式,未来课程中,我们主要考虑这种方式。pointwise error一般可以分成两类:0/1 error和squared error。0/1 error通常用在分类(classification)问题上,而squared error通常用在回归(regression)问题上。 ![这里写图片描述](https://img.kancloud.cn/cb/7c/cb7c115d1d479d650c4261009f3a5c0f_563x131.jpg) Ideal Mini-Target由![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)和err共同决定,0/1 error和squared error的Ideal Mini-Target计算方法不一样。例如下面这个例子,分别用0/1 error和squared error来估计最理想的mini-target是多少。0/1 error中的mini-target是取P(y|x)最大的那个类,而squared error中的mini-target是取所有类的加权平方和。 ![这里写图片描述](https://img.kancloud.cn/8e/e5/8ee5680d696f0e4a0c9c7d2d5718057f_566x399.jpg) 有了错误衡量,就会知道当前的矩g是好还是不好,并会让演算法不断修正,得到更好的矩g,从而使得g与目标函数更接近。所以,引入error measure后,学习流程图如下所示: ![这里写图片描述](https://img.kancloud.cn/5c/6c/5c6c8e6b9b696d6371c4e339c8d4fcc3_566x278.jpg) ### **三、Algorithmic Error Measure** Error有两种:false accept和false reject。false accept意思是误把负类当成正类,false reject是误把正类当成负类。 根据不同的机器学习问题,false accept和false reject应该有不同的权重,这根实际情况是符合的,比如是超市优惠,那么false reject应该设的大一些;如果是安保系统,那么false accept应该设的大一些。 ![这里写图片描述](https://img.kancloud.cn/67/cd/67cdf01aa1225312ae1abdf6f8eddc68_566x123.jpg) 机器学习演算法A的cost function error估计有多种方法,真实的err一般难以计算,常用的方法可以采用plausible或者friendly,根据具体情况而定。 ![这里写图片描述](https://img.kancloud.cn/ac/69/ac6914d4df2a5e761dac746c20fad1bb_566x187.jpg) 引入algorithm error measure之后,学习流程图如下: ![这里写图片描述](https://img.kancloud.cn/41/a3/41a30f6ce3a098149e4b71fff3ad4766_563x274.jpg) ### **四、Weighted Classification** 实际上,机器学习的Cost Function即来自于这些error,也就是算法里面的迭代的目标函数,通过优化使得Error(Ein)不断变小。 cost function中,false accept和false reject赋予不同的权重,在演算法中体现。对不同权重的错误惩罚,可以选用virtual copying的方法。 ![这里写图片描述](https://img.kancloud.cn/41/16/41162e947b07c7588d613b4c3d788ed1_566x404.jpg) ![这里写图片描述](https://img.kancloud.cn/c0/6f/c06f2e9113d86b79e976ca8b009d5422_566x386.jpg) ### **五、总结** 本节课主要讲了在有Noise的情况下,即数据集按照![](https://img.kancloud.cn/59/87/59870e17b1997c94cef4ffd4162e397f_46x18.jpg)概率分布,那么VC Dimension仍然成立,机器学习算法推导仍然有效。机器学习cost function常用的Error有0/1 error和squared error两类。实际问题中,对false accept和false reject应该选择不同的权重。 **_注明:_** 文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程。