《统计学习方法学习》算法学习笔记(一)之感知机

丶灬走出姿态 提交于 2019-12-30 09:44:53

感知机

总述

感知机是二类分类线性分类模型,其输入为实例的特征向量输出实例的类别,取+1和-1二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机学习旨在求出将训练数据进行线性化分的分离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数极小化,求得感知机模型。感知机学习算法具有简单而易于实现的优点,分为原始形式和对偶形式。感知机预测是用学到的感知机模型对新的输入实例进行分类。

1.1 感知机模型

定义:假设输入空间(特征空间)xxRn\R^n,输出空间是yy={-1, +1},输入xx表示实例的特征向量,对应于输入空间(特征空间)中的点,输出yy表示实例的类别。由输入空间到输出空间的如下函数
f(x)=sign(wx+b)f(x)=sign(w*x+b)
称为感知机。其中,wwbb称为感知机模型参数,wRnw∈R^n叫权值或权值向量,bRb∈R叫作偏置,wxw*x表示wwbb的内积,signsign是符号函数,即
f(n)={+1if x01,if x<0 f(n)= \begin{cases} +1 & \text {if $x≥0$} \\ -1, & \text{if $x<0$} \end{cases}
感知机模型假设空间是定义在特征空间中的所有线性分类模型或线性分类器,即函数集合{ff(x)=wx+b)f | f(x)=w*x+b)}。

Alt
线性方程wx+b=0w*x+b=0(感知机模型)对应特征空间RnR^n中的一个超平面。感知机学习由训练数据集实例的特征向量及类别:T={(x1,y1),(x2,y2),......,(xn,yn)(x_1, y_1), (x_2, y_2), ......,(x_n, y_n)},其中,xiRnx_i∈R^nyiyy_i∈y={-1, +1},i=1,2,...,Ni=1, 2, ..., N,求得感知机模型参数wbw和b

1.2 感知机学习策略

前提数据集线性可分(存在某个超平面SS能够将数据集的正实例点和负实例点完全正确的划分到超平面的两侧)。

学习策略:定义一个(经验)损失函数并将损失函数极小化,损失函数必须连续且可导。感知机所使用的损失函数是误分类点到超平面的距离

对于误分类点(xi,yi)(x_i, y_i)来说,有
yi(wxi+b)>0-y_i(w*x_i+b)>0
成立。因此,误分类点到超平面SS的距离是
Alt
感知机 sign(wx+b)sign(w*x+b) 学习的损失函数定义为
Alt
该损失函数满足连续且可导。损失函数L(w,b)L(w, b)是非负的,如果没有误分类点,损失函数值为0;误分类点越少,误分类点离超平面越近,损失函数值越小

综上所述:感知机的学习策略是在假设空间中选取使损失函数L(w,b)L(w, b)最小的模型参数wwbb,即感知机模型。

1.3 感知机学习算法

感知机学习问题转化为求解损失函数的最优化问题,求解最优化问题的方法是随机梯度下降

1.3.1 感知机学习算法的原始形式

Alt
感知机学习算法是误分类驱动的,具体采用随机梯度下降算法。首先,任意选取一个超平面w0b0w_0和b_0,然后用随机梯度下降法不断极小化上述目标函数。极小化过程不是一次使用MM中的所有误分类点的梯度下降,而是一次随机选取一个误分类点使其梯度下降

损失函数梯度如下:
Alt
随机选择一个误分类点(xi,yi)(x_i, y_i)wbw和b进行更新:
Alt
式中η(0<η1)\eta(0<\eta≤1)是步长,又称为学习率。

感知机学习算法的原始形式如下:

输入:训练数据集T=T={ (x1,y1),(x2,y2),...,(xN,yN)(x_1,y_1), (x_2,y_2), ..., (x_N,y_N)},其中xix=Rnx_i∈x=R^nyiyy_i∈y={1,+1-1,+1},i=1,2,...,Ni=1,2,...,N,学习率η(0<η1)\eta(0<\eta≤1)
输出w,bw,b;感知机模型 f(x)=sign(wx+b)f(x)=sign(w*x+b)

  1. 选取初值w0,b0w_0,b_0;
  2. 在训练集中选取数据(xi,yi)(x_i, y_i);
  3. 如果yi(wxi+b)0y_i(w*x_i+b)≤0
    Alt
  4. 转至(2),直到训练集中没有误分类点。

直观解释:当一个实例点被误分类,即位于分离超平面错误的一侧时,则调整wbw和b的值,使分离超平面向该误分类点的一侧移动,以减少该误分类点与超平面的距离,直至超平面越过该误分类点使其分类正确。

1.3.2 算法的收敛性

由Novikoff定理可证明感知机算法的收敛性:
k(R/γ)2k≤(R/\gamma)_2
式中,kk是算法迭代次数;RR 指代xix_i二范数的最大值;γ>0\gamma>0kk存在上界,经过有限次迭代,算法收敛。

感知机算法存在许多解,这些解既依赖于初值的选择,也依赖于迭代过程在误分类点的选择顺序。为了得到唯一的超平面,需要对分离超平面增加约束条件。当训练集线性不可分,感知机学习算法不收敛,迭代结果会发生震荡。

1.3.3 感知机学习算法的对偶形式

对偶形式的基本思想是,将wbw和b表示为实例xix_i和标记yiy_i的线性组合的形式,通过求解其系数而求得wbw和b

原始形似中,对误分类点(xi,yi)(x_i,y_i)通过
Alt
逐步修改wbw和b,设修改nn次,则wbw和b关于(xi,yi)(x_i,y_i)的增量分别是αiyixi\alpha_iy_ix_iαiyi\alpha_iy_i,这里αi=niη\alpha_i=n_i\eta,这一过程中最终学习到的wbw和b可以分别表示为:
Alt
这里αi0\alpha_i≥0i=1,2,...,Ni=1,2,...,N。当η=1\eta=1时,表示第ii个实例点由于误分类而进行更新的次数(说实话,这句我没看懂 [笑哭])。实例点更新次数越多,意味着它距离分离超平面越近,也就越难正确分类。这样的实例点对学习结果影响最大

感知机学习算法的对偶形式如下:
输入:训练数据集T=T={ (x1,y1),(x2,y2),...,(xN,yN)(x_1,y_1), (x_2,y_2), ..., (x_N,y_N)},其中xix=Rnx_i∈x=R^nyiyy_i∈y={1,+1-1,+1},i=1,2,...,Ni=1,2,...,N,学习率η(0<η1)\eta(0<\eta≤1)
输出α,b\alpha,b;感知机模型
Alt
其中,α=(α1,α2,...,αN)T\alpha = (\alpha_1,\alpha_2,...,\alpha_N)^Tαi=niη\alpha_i=n_i\eta

  1. 0→α\alpha,0→bb
  2. 在训练集中选取数据(xi,yi)(x_i,y_i)
  3. 如果
    Alt
    则有
    Alt
  4. 转至(2)直到没有误分类数据。

对偶形式中,训练数据仅以内积形式出现,为了方便,可以预想将训练集中实例间的内积计算出来并以矩阵形式存储,这个矩阵就是Gram矩阵

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!