逻辑回归:二分类问题
核心:激活函数sigmoid
,其中,
梯度上升/下降法 沿梯度最大的方向/反方向去更新权重值,求取函数最大、最小值
梯度优化算法:
利用梯度算法来更新参数,普通梯度下降法和随机梯度下降算法。
sigmoid函数:
def sigmoid(inX):
return 1.0 / (1 + exp(-inX))
普通梯度下降法:
def gradAscent(dataMatIn, classLabels):
dataMatrix = mat(dataMatIn)
labelMat = mat(classLabels).transpose()
m, n = shape(dataMatrix)
alpha = 0.001 # Learning rate
maxCycles = 500
版权声明:本文为qq_37210730原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。