shall维 2022-11-29 15:41 采纳率: 0%
浏览 23

pytorch-lighting 多卡训练读取数据不对?

pytorch-lighting 多卡训练

一万张数据集,三卡,batch_size为2,结果最后他会训练5000轮(甚至还会加个1892的常数),我打印训练时的图片读取路径,发现他最后会用两万多张图片,问题我只有10000张!!
是他这个轮数认识不到卡的区别吗,我用一张卡的时候就基本正常,除了多了一个常数

  • 写回答

1条回答 默认 最新

  • 爱晚乏客游 2022-11-29 17:32
    关注

    多卡训练之前,先确保batch-size大于显卡数目。
    另外,你三张卡什么鬼,要么双路,要么四路,三张卡很少情况,分配都如双数的卡好分

    评论

报告相同问题?

问题事件

  • 修改了问题 11月29日
  • 创建了问题 11月29日