机器学习实战(Peter Harrington)—–逻辑回归

  • Post author:
  • Post category:其他


逻辑回归:二分类问题

核心:激活函数sigmoid
h(x) = g(z) = \frac{1}{1+e^{-z}}
,其中,
z = w^{T}*x

梯度上升/下降法   沿梯度最大的方向/反方向去更新权重值,求取函数最大、最小值

梯度优化算法:

利用梯度算法来更新参数,普通梯度下降法和随机梯度下降算法。

sigmoid函数:

def sigmoid(inX):
    return 1.0 / (1 + exp(-inX))

普通梯度下降法:

def gradAscent(dataMatIn, classLabels):
    dataMatrix = mat(dataMatIn)
    labelMat = mat(classLabels).transpose()
    m, n = shape(dataMatrix)
    alpha = 0.001               # Learning rate
    maxCycles = 500           



版权声明:本文为qq_37210730原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。