如题,本人正在尝试跑模型,需要用到torch,由于数据量较大在本地运行耗时较久,因此去平台上面跑,平台应该有gpu,也能得到结果,但如果将模型换回本地来跑,会出现"AssertionError: Torch not compiled with CUDA enabled"的报错信息,经过检查我发现关于torch.device的设定都是按照"torch.device("cuda" if torch.cuda.is_available() else "cpu")"这样来的,应该不存在调用问题,请问这还可能是什么原因呢?
设定device的位置
调用device的位置