感知机、logistic回归 损失函数对比探讨
感知机、logistic回归 损失函数对比探讨 感知机 假如数据集是线性可分的,感知机学习的目标是求得一个能够将正负样本完全分开的分隔超平面 \(wx+b=0\) 。其学习策略为,定义(经验)损失函数并将损失函数最小化。通常,定义损失函数的策略是:== 误分类点 到分隔超平面的总距离==。【李航,2.2节】 如果没有误分点,则损失函数值是0. 感知机学习算法若采用不用的初始值或选取不同的误分类点,得到的分隔超平面可不同。 logistic回归(对数几率回归): 逻辑回归和感知机一样,定义一个决策面(分隔面)来区分正负两类样本。但是其学习策略为: 定义: \(z=\theta x=ln \dfrac{p}{1-p}\) ,其中 \(z\in R\) , \(p=P(y=1\mid x ;\theta)\) , \(p\in (0,1)\) ,即样本点为1的概率。此时 \(z = \theta x=0\) 为分类决策面, \(p=g(z)=\dfrac{1}{1+e^{-z}}\) ,其实可发现: 当 \(\theta^TX\gt0\) ,则有 \(p\gt0.5\) ;若 \(\theta^TX\to+\infty\) ,则 \(p\to1\) ,即 y 为 1 类; 当 \(\theta^TX\lt0\) ,则有 \(p\lt0.5\) ;若 \(\theta