逻辑回归的前因后果
逻辑回归的前因后果 LR的泛化形式 – 广义线性模型 最简单的线性回归模型,函数对于 x 和 w 都是线性的: y ( x ) = w T x + w 0 //--> 它是二维坐标系中的一条直线,或者三维空间中的一个平面,在高维空间则是超平面。为了把它用于分类,可以给它加一个激活函数,把值域压缩到小区间,比如(0, 1)之间,这就是广义线性模型: y ( x ) = f ( w T x + w 0 ) //--> 当激活函数是logistic-sigmoid函数时,这个分类方法就是LR: p ( C 1 | ϕ ) = σ ( w T ϕ ) //--> 从回归方法演化而来,LR虽用于分类,它的输出却不是{0,1}两类,而是一个连续的函数,所以名字还叫“回归”而不是“分类”。 为什么用logistic-sigmoid函数 首先,LR是判别模型,即它直接求后验概率,那么想象一下,一个只有两类的后验概率 应该是什么形状 ? 用例子说明,假设男女比例相等,男女两类的先验概率:p(男人)=1/2,p(女人)=1/2 现在给先验概率加一个条件:身高,即知道一个人的身高,猜它是男的概率,是女的概率。高个子通常是男的,但也可能是女的。在各种不同身高条件下,有了一系列 后验概率 : p (男| 150 ) =1/8 | p (男| 160 ) =1/5 | p (男| 170 ) =1/2 | p