shall维 2022-11-29 15:41 采纳率: 0%
浏览 20

pytorch-lighting 多卡训练读取数据不对?

pytorch-lighting 多卡训练

一万张数据集,三卡,batch_size为2,结果最后他会训练5000轮(甚至还会加个1892的常数),我打印训练时的图片读取路径,发现他最后会用两万多张图片,问题我只有10000张!!
是他这个轮数认识不到卡的区别吗,我用一张卡的时候就基本正常,除了多了一个常数

  • 写回答

1条回答 默认 最新

  • 爱晚乏客游 2022-11-29 17:32
    关注

    多卡训练之前,先确保batch-size大于显卡数目。
    另外,你三张卡什么鬼,要么双路,要么四路,三张卡很少情况,分配都如双数的卡好分

    评论

报告相同问题?

问题事件

  • 修改了问题 11月29日
  • 创建了问题 11月29日

悬赏问题

  • ¥50 复现论文;matlab代码编写
  • ¥30 echarts 3d地图怎么实现一进来页面散点数据和卡片一起轮播
  • ¥15 数字图像的降噪滤波增强
  • ¥15 心碎了,为啥我的神经网络训练的时候第二个批次反向传播会报错呀,第一个批次都没有问题
  • ¥15 MSR2680-XS路由器频繁卡顿问题
  • ¥15 VB6可以成功读取的文件,用C#读不了
  • ¥15 如何使用micpyhon解析Modbus RTU返回指定站号的湿度值,并确保正确?
  • ¥15 C++ 句柄后台鼠标拖动如何实现
  • ¥15 有人会SIRIUS 5.8.0这个软件吗
  • ¥30 comsol仿真等离激元