问题遇到的现象和发生背景
在学习深度学习过程中,调入了一个softmax函数,在n, n_c = y.shape,这一步老是报错,y.shape = (500, ), 按照我自己的理解,n = 500, n_c = 1,但是会报错,value error,说有两个变量确只赋了一个值。但当我直接将n_c = 1时,又会出现RuntimeWarning: invalid value encountered in log loss-= np.log(scores[y.tolist()[i]]/total)
的错误。
问题相关代码,请勿粘贴截图
def softmax_loss_naive(W, X, y, reg):
# Initialize the loss and gradient to zero.
loss = 0.0
dW = np.zeros_like(W)
n, n_c = y.shape
for i in range(n):
scores = np.dot(X[i],W)
stable_scores = np.exp(scores-np.max(scores))
total = np.sum(stable_scores)
loss-= np.log(scores[y.tolist()[i]]/total)
for j in range(n_c):
dW[:,j]+= (scores[j]X[i])/total
if(j == y[i]):
dW[:,y.tolist()[i]] -= X[i]
loss = loss/n + regnp.sum(np.square(W))
dW = dW/n + 2regW
return loss, dW
运行结果及报错内容
我的解答思路和尝试过的方法
令n=y.shape[0], n_c = 1
我想要达到的结果
正确输出返回值,返回值为一个浮点型数值。