这个服务器的命令行有问题,命令行的(torch.cuda.is_available())永远输出false,但是在Jupyter里(torch.cuda.is_available())就能输出True,所以我现在只能在Jupyter里运行程序,有没有什么解决方法?
检查过很多遍了,pytorch的版本和CUDA版本都是符合的,环境变量也都设置了



这个服务器的命令行有问题,命令行的(torch.cuda.is_available())永远输出false,但是在Jupyter里(torch.cuda.is_available())就能输出True,所以我现在只能在Jupyter里运行程序,有没有什么解决方法?
检查过很多遍了,pytorch的版本和CUDA版本都是符合的,环境变量也都设置了



该回答引用自GPT-3.5,由博主GISer Liu编写:
针对您的问题,首先需要明确的是,Jupyter Notebook 和命令行所使用的环境可能存在差异,导致 CUDA
可用性判断结果不同。以下是解决此问题的一般思路和可能的解决方案:
sys.executable 查看 Python 解释器路径,并确保两者一致。PATH 和 LD_LIBRARY_PATH 等 CUDA 相关环境变量。import os
# 查看 CUDA 相关环境变量
print("CUDA 环境变量:")
print(os.environ.get("CUDA_HOME"))
print(os.environ.get("LD_LIBRARY_PATH"))
# 查看其他环境变量,如 PATH
print("\n其他环境变量:")
print(os.environ.get("PATH"))
如果该回答解决了您的问题,请采纳!如果没有,请参考以下方案进行修订
