softmax回归笔记

五迷三道 提交于 2019-11-29 13:31:39

Softmax回归

softmax回归是logistic回归的一般化,适用于K分类的问题,针对于每个类别都有一个参数向量θ,第k类的参数为向量θk,组成的二维矩阵为θk*n;

损失函数

J(θ)=1mi=1mj=1kI(y(i)=j)ln(eθjTx(i)l=1keθiTx(i))I(y(i)=j)={1,y(i)=j0,y(i)j J(\theta)=-\frac{1}{m} \sum_{i=1}^{m} \sum_{j=1}^{k} I\left(y^{(i)}=j\right) \ln \left(\frac{e^{\theta_{j}^{T} x^{(i)}}}{\sum_{l=1}^{k} e^{\theta_{i}^{T} x^{(i)}}}\right) \quad \\ I\left(y^{(i)}=j\right)=\left\{\begin{array}{l}{1, \quad y^{(i)}=j} \\ {0, \quad y^{(i)} \neq j}\end{array}\right.

梯度

θjJ(θ)=I(y(i)=j)(1eθxTx(i)l=1keθlTx(i))x(i) \frac{\partial}{\partial \theta_{j}} J(\theta)=-I\left(y^{(i)}=j\right)\left(1-\frac{e^{\theta_{x}^{T} x^{(i)}}}{\sum_{l=1}^{k} e^{\theta_{l}^{T} x^{(i)}}}\right) x^{(i)}

梯度下降算法的参数迭代公式

θj=θj+αi=1mI(y(i)=j)(1p(y(i)=jx(i);θ))x(i)θj=θj+αI(y(i)=j)(1p(y(i)=jx(i);θ))x(i) \theta_{j}=\theta_{j}+\alpha \sum_{i=1}^{m} I\left(y^{(i)}=j\right)\left(1-p\left(y^{(i)}=j | x^{(i)} ; \theta\right)\right) x^{(i)}\\ \theta_{j}=\theta_{j}+\alpha I\left(y^{(i)}=j\right)\left(1-p\left(y^{(i)}=j | x^{(i)} ; \theta\right)\right) x^{(i)}

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!