Softmax回归
softmax回归是logistic回归的一般化,适用于K分类的问题,针对于每个类别都有一个参数向量θ,第k类的参数为向量θk,组成的二维矩阵为θk*n;
损失函数
J(θ)=−m1i=1∑mj=1∑kI(y(i)=j)ln(∑l=1keθiTx(i)eθjTx(i))I(y(i)=j)={1,y(i)=j0,y(i)̸=j
梯度
∂θj∂J(θ)=−I(y(i)=j)(1−∑l=1keθlTx(i)eθxTx(i))x(i)
梯度下降算法的参数迭代公式
θj=θj+αi=1∑mI(y(i)=j)(1−p(y(i)=j∣x(i);θ))x(i)θj=θj+αI(y(i)=j)(1−p(y(i)=j∣x(i);θ))x(i)