我在训练Lora模型时,当设置的batch_size大于2时(3或4),训练的过程会非常慢,系统预估训练完成要两个小时。此时GPU使用率100%,而且风扇不转,总感觉像是GPU不够用了。
当设置的batch_size为2时,训练就很快,系统预估训练完成要20到30分钟。此时此时GPU使用率浮动在80%到100%之间,而且GPU风扇狂转,这时候应该是GPU够用了。
但是网上大部分资料都说提高batch_size会加快训练速度么?为什么我设置大了反而导致速度异常缓慢呢?
我的电脑配置
GPU:技嘉3080, 10G显存
内存:32G