我想在文章中解释一下网络的batch size参数选择原因,吴恩达在deep Learning中说过选择2的次幂可以加快二进制的计算,但没说具体的原因。
请问是什么原因,有没有相关的论文引用一下。
为什么CNN的kernel和batch size是2的次幂?
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
2条回答
关注 链接:https://www.nowcoder.com/questionTerminal/832412088a4e4e2ab776330bf2a3ac53
来源:牛客网机器学习训练时,Mini-Batch 的大小优选为2 的幂,如 256 或 512。它背后的原因是什么?
Mini-Batch 为偶数的时候,梯度下降算法训练的更快 **Mini-Batch 设为 2 的幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理** 不使用偶数时,损失函数是不稳定的 其他选项说法都不对
解决 无用评论 打赏 举报
悬赏问题
- ¥15 YoloV5 第三方库的版本对照问题
- ¥15 请完成下列相关问题!
- ¥15 drone 推送镜像时候 purge: true 推送完毕后没有删除对应的镜像,手动拷贝到服务器执行结果正确在样才能让指令自动执行成功删除对应镜像,如何解决?
- ¥15 求daily translation(DT)偏差订正方法的代码
- ¥15 js调用html页面需要隐藏某个按钮
- ¥15 ads仿真结果在圆图上是怎么读数的
- ¥20 Cotex M3的调试和程序执行方式是什么样的?
- ¥20 java项目连接sqlserver时报ssl相关错误
- ¥15 一道python难题3
- ¥15 牛顿斯科特系数表表示