_沧海桑田_ 2021-02-18 11:11 采纳率: 100%
浏览 79
已采纳

多GPU数据并行训练的加速原理到底是什么?

每个batch其实后面都要求平均梯度再反向传播,所以感觉多GPU优势就是得到一个更小的学习率?

  • 写回答

2条回答 默认 最新

  • _沧海桑田_ 2021-02-18 11:26
    关注

    没错,本质是learning rate,且每个batch其实后面都要求平均梯度再反向传播,

    多gpu时每个batch的data多了,这时,

    每个batch的learning rate不变则每个data的learning rate变小,

    每个data的learning rate不变则每个batch的learning rate变大,

    最终就是允许更大的总learning rate。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 已采纳回答 7月19日