abcdhope 2020-08-16 02:54 采纳率: 0%
浏览 1003
已采纳

关于逻辑回归调用opt.fmin_tnc的问题

我调用了opt.fmin_tnc之后发现结果不对,输入的数据是正确的,请各位大佬帮我看看函数哪里出问题了

#定义正则化的代价函数
def costReg(theta,X,y,a):
    theta=np.matrix(theta).T
    _theta=theta[1:]#正则化不计算第一项
    reg=a/(2*len(X))*np.sum(np.power(_theta,2))#正则化参数
    hx=sigmoid(np.dot(X,theta))
    first=np.multiply(-y,np.log(hx))-np.multiply((1-y),np.log(1-hx))
    cost=np.sum(first)/len(X)
    return cost+reg
#正则化梯度下降
def gradientReg(theta,X,y,a):
    theta=np.matrix(theta).T
    parameters = int(theta.shape[0])
    grad = np.zeros(parameters)

    error = sigmoid(np.dot(X,theta)) - y

    for i in range(parameters):
        term = np.multiply(error, X[:,i])

        if (i == 0):
            grad[i] = np.sum(term) / len(X)
        else:
            grad[i] = (np.sum(term) / len(X)) + ((a / len(X)) * theta[i,0])

    return grad

当特征向量只有2个的时候是能输出代价函数值的,为0.6931471805599454

但是经过梯度下降后theta值就会变得很低,输出结果几乎为0

  • 写回答

1条回答 默认 最新

  • dabocaiqq 2020-08-16 03:32
    关注
    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
编辑
预览

报告相同问题?

手机看
程序员都在用的中文IT技术交流社区

程序员都在用的中文IT技术交流社区

专业的中文 IT 技术社区,与千万技术人共成长

专业的中文 IT 技术社区,与千万技术人共成长

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

关注【CSDN】视频号,行业资讯、技术分享精彩不断,直播好礼送不停!

客服 返回
顶部