机器学习(七)逻辑回归之代价函数
机器学习(七)逻辑回归之代价函数 前言: 由机器学习(六)我们得到了二分类问题的假设函数 hθ(x),那么下一步我们需要确定代价函数 J(θ),然后通过梯度下降法确定拟合参数θ。 一、代价函数 1、假设函数: 2、对于线性回归的代价函数 3、但是因为 hθ(x)是S型的非线性函数,因此我们得到的J(θ)图形,可能是如下图所示的非凸函数 4、那么对于这样的代价函数J(θ),我们就很难用梯度下降法得到全局收敛的最小值,我们需要代价函数是凸函数,类似下图所示,这样我们就一定可以通过梯度下降法得到代价函数的全局收敛的最小值。 5、为了解决上面提到的J(θ)是非凸函数的问题,我们寻找其它的数学等价代换,来使得逻辑回归的代价函数为凸函数, 首先,对于代价函数做如下代换: 6、我们观察如下y = -ln(x)和y = -ln(1-x)两个函数的图像 该图像最明显的特性是当x=1时,则y=0;当x=0时,则y趋向于无穷。 该图像最明显的特性是当x=0时,则y=0;当x=1时,y趋向于无穷。 7、对于cost函数 ,自变量hθ(x (i) )∈(0,1),因变量y (i) ∈ (0 | 1),因此,假设 令y=1,则cost(hθ(x (i) ),y (i) ) = -ln(hθ(x (i) )) 令y=0,则cost(hθ(x (i) ),y (i) ) = -ln(1-hθ(x (i) ))