状态函数的含义及其基本特征是什么,态函数的特点是什么( 二 )


图形化表示如下:
中间那条线是 ,logistic回顾强调所有点尽可能地远离中间那条线 。学习出的结果也就中间那条线 。考虑上面3个点A、B和C 。从图中我们可以确定A是×类别的,然而C我们是不太确定的,B还算能够确定 。这样我们可以得出结论,我们更应该关心靠近中间分割线的点,让他们尽可能地远离中间线,而不是在所有点上达到最优 。因为那样的话,要使得一部分点靠近中间线来换取另外一部分点更加远离中间线 。我想这就是支持向量机的思路和logistic回归的不同点,一个考虑局部(不关心已经确定远离的点),一个考虑全局(已经远离的点可能通过调整中间线使其能够更加远离) 。这是我的个人直观理解 。
3 形式化表示
我们这次使用的结果标签是y=-1,y=1,替换在logistic回归中使用的y=0和y=1 。同时将 替换成w和b 。以前的 ,其中认为。现在我们替换 为b,后面替换 为 (即 ) 。这样,我们让 ,进一步。也就是说除了y由y=0变为y=-1,只是标记不同外,与logistic回归的形式化表示没区别 。再明确下假设函数
上一节提到过我们只需考虑 的正负问题,而不用关心g(z),因此我们这里将g(z)做一个简化,将其简单映射到y=-1和y=1上 。映射关系如下:
4 函数间隔(functional margin)和几何间隔(geometric margin)
给定一个训练样本 ,x是特征,y是结果标签 。i表示第i个样本 。我们定义函数间隔如下:
可想而知,当 时,在我们的g(z)定义中, , 的值实际上就是。反之亦然 。为了使函数间隔最大(更大的信心确定该例是正例还是反例),当 时, 应该是个大正数,反之是个大负数 。因此函数间隔代表了我们认为特征是正例还是反例的确信度 。
继续考虑w和b,如果同时加大w和b,比如在 前面乘个系数比如2,那么所有点的函数间隔都会增大二倍,这个对求解问题来说不应该有影响,因为我们要求解的是 ,同时扩大w和b对结果是无影响的 。这样,我们为了限制w和b,可能需要加入归一化条件,毕竟求解的目标是确定唯一一个w和b,而不是多组线性相关的向量 。这个归一化一会再考虑 。
刚刚我们定义的函数间隔是针对某一个样本的,现在我们定义全局样本上的函数间隔
说白了就是在训练样本上分类正例和负例确信度最小那个函数间隔 。
接下来定义几何间隔,先看图
假设我们有了B点所在的 分割面 。任何其他一点,比如A到该面的距离以 表示,假设B就是A在分割面上的投影 。我们知道向量BA的方向是 (分割面的梯度),单位向量是。A点是 ,所以B点是x= (利用初中的几何知识),带入 得,
进一步得到
实际上就是点到平面距离 。
再换种更加优雅的写法:
当 时,不就是函数间隔吗?是的,前面提到的函数间隔归一化结果就是几何间隔 。他们为什么会一样呢?因为函数间隔是我们定义的,在定义的时候就有几何间隔的色彩 。同样,同时扩大w和b,w扩大几倍, 就扩大几倍,结果无影响 。同样定义全局的几何间隔
5 最优间隔分类器(optimal margin classifier)
回想前面我们提到我们的目标是寻找一个超平面,使得离超平面比较近的点能有更大的间距 。也就是我们不考虑所有的点都必须远离超平面,我们关心求得的超平面能够让所有点中离它最近的点具有最大间距 。形象的说,我们将上面的图看作是一张纸,我们要找一条折线,按照这条折线折叠后,离折线最近的点的间距比其他折线都要大 。形式化表示为:
这里用 =1规约w,使得 是几何间隔 。
到此,我们已经将模型定义出来了 。如果求得了w和b,那么来一个特征x,我们就能够分类了,称为最优间隔分类器 。接下的问题就是如何求解w和b的问题了 。