分类: 信息化
2014-12-04 23:38:19
5. 对于因变量y=0或1这样的二分类问题:,,整合后,可以写成
6. 由最大似然估计原理,我们可以通过m个训练样本值,来估计出值,使得似然函数值最大
这里,为m个训练样本同时发生的概率。对求log,得:
7. 求最大似然函数参数的立足点是求出每个参数方向上的偏导数,并让偏导数为0,最后求解此方程组。由于中参数数量的不确定,考虑到可能参数数量很大,此时直接求解方程组的解变的很困难。于是,我们用随机梯度上升法,求解方程组的值,就是使最大化时的值,迭代函数为:
8. 线性回归的Cost Function是凸函数,具有碗状的形状,而凸函数具有良好的性质:对于凸函数来说局部最小值点即为全局最小值点,因此只要能求得这类函数的一个最小值点,该点一定为全局最小值点。如果直接把代入到线性回归的损失函数中,得到的损失函数而是非凸的,梯度上升法无法收敛,所以需要其他形式的Cost Function来保证逻辑回归的成本函数是凸函数。
由于y 只能等于0或1,所以可以将逻辑回归中的Cost function的两个公式合并,具体推导如下:
故逻辑回归的Cost function可简化为:
可以看到中括号中的部分为逻辑回归模型的对数似然函数,故求得的相同