看《深度学习与MindSpore实践》遇到一点问题,不知道是不是作者本人数学不好的问题,感觉书中第二章2.3讲到交叉熵函数那块图2.5的标示是有问题的的,好像把y=0和y=1标注反了,跟文字描述不符合。作者自己推了一下,觉得确实标反了。
作者本人不太懂,刚开始看相关知识,不知道是不是自己理解有问题,各位帮忙看看是不是图像上面标注反了
对《深度学习与MindSpore实践》图示的疑问
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
4条回答 默认 最新
关注 引自免费微信小程序:皆我百晓生
在您提供的描述中,看起来您的疑惑在于《深度学习与MindSpore实践》一书中的图2.5是否正确地展示了交叉熵损失函数的行为。根据您的描述,交叉熵损失函数应该是这样的:
- 当
y(i)
是 0 时,损失函数应当随着模型预测的概率h(x(i))
接近 0 而减小,并且斜率较平缓。 - 当
y(i)
是 1 时,损失函数应当随着h(x(i))
接近 0 而增加得更快,即斜率更陡峭。
从您的描述来看,似乎书中的图可能将这两个情况标记反了。为了确认这一点,我们可以手动绘制一个交叉熵损失函数的图形。交叉熵损失函数通常用于二元分类问题,其定义为:
[ J(w) = -[y \cdot log(h(x)) + (1 - y) \cdot log(1 - h(x))] ]
其中:
- ( w ) 是模型参数,
- ( y ) 是真实标签(0 或 1),
- ( h(x) ) 是模型对输入 ( x ) 的预测概率(介于 0 和 1 之间)。
让我们通过 Python 来绘制这个函数。我们将使用 Numpy 和 Matplotlib 库进行绘图。首先确保安装这些库,然后运行下面的代码:
import numpy as np import matplotlib.pyplot as plt # 定义模型预测概率范围 x_values = np.linspace(0, 1, num=100) # 定义两个不同的真实标签 y y_values = [0, 1] # 计算交叉熵损失 def cross_entropy_loss(y, h): return -y * np.log(h) - (1 - y) * np.log(1 - h) losses = [] for y in y_values: losses.append(cross_entropy_loss(y, x_values)) # 绘制图形 plt.plot(x_values, losses[0], label='y=0') plt.plot(x_values, losses[1], label='y=1') # 设置坐标轴和标题 plt.xlabel('Model prediction probability (h(x))') plt.ylabel('Cross-Entropy Loss (J)') plt.title('Single sample with Cross-Entropy Loss Function') plt.legend() plt.grid(True) plt.show()
这段代码会生成一个图形,显示了当
y=0
和y=1
时,交叉熵损失随模型预测概率变化的情况。如果图形显示的结果与您的描述相符,那么图2.5可能存在错误。如果结果不同,请检查您的理解或再次核对书中的描述。解决 1无用- 当
悬赏问题
- ¥15 CCF-CSP 2023 第三题 解压缩(50%)
- ¥30 comfyui openpose报错
- ¥20 Wpf Datarid单元格闪烁效果的实现
- ¥15 图像分割、图像边缘提取
- ¥15 sqlserver执行存储过程报错
- ¥100 nuxt、uniapp、ruoyi-vue 相关发布问题
- ¥15 浮窗和全屏应用同时存在,全屏应用输入法无法弹出
- ¥100 matlab2009 32位一直初始化
- ¥15 Expected type 'str | PathLike[str]…… bytes' instead
- ¥15 三极管电路求解,已知电阻电压和三级关放大倍数