hitomo 2025-08-28 21:40 采纳率: 98.8%
浏览 10
已采纳

如何正确安装Ollama并配置CUDA支持?

**问题:如何在Ubuntu系统上正确安装Ollama并配置CUDA支持?** 在Ubuntu系统上安装Ollama并启用CUDA支持时,常见的问题是无法正确识别NVIDIA GPU,导致模型无法运行在GPU加速模式。用户需首先安装合适的NVIDIA驱动和CUDA Toolkit,再通过官方指南编译Ollama源码或下载支持CUDA的二进制版本。此外,还需设置环境变量以确保Ollama能够调用CUDA。若配置不当,会出现“no CUDA-capable device is detected”等错误。请详细说明Ubuntu系统下Ollama的安装步骤、CUDA依赖安装方法及验证是否成功启用GPU加速的手段。
  • 写回答

1条回答 默认 最新

  • 风扇爱好者 2025-08-28 21:40
    关注

    如何在Ubuntu系统上正确安装Ollama并配置CUDA支持

    1. 系统准备与环境确认

    在开始安装Ollama和CUDA支持前,需确保系统满足以下条件:

    • Ubuntu 20.04或更高版本(推荐22.04 LTS)
    • NVIDIA GPU支持CUDA(可通过lspci | grep -i nvidia查看)
    • 具备sudo权限的用户账户

    2. 安装NVIDIA驱动

    安装合适的NVIDIA驱动是启用CUDA支持的前提。可通过以下步骤安装:

    1. 添加NVIDIA驱动仓库:
    2. sudo add-apt-repository ppa:graphics-drivers/ppa
    3. 更新软件包列表:
    4. sudo apt update
    5. 查看推荐驱动版本:
    6. ubuntu-drivers devices
    7. 安装推荐版本(例如nvidia-driver-535):
    8. sudo apt install nvidia-driver-535
    9. 重启系统后验证驱动是否生效:
    10. nvidia-smi

    3. 安装CUDA Toolkit

    安装与驱动版本兼容的CUDA Toolkit,以支持GPU加速:

    1. 访问NVIDIA官网,根据驱动版本选择对应的CUDA Toolkit版本。
    2. 使用apt安装(以CUDA 12.1为例):
    3. wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
      sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
      wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
      sudo dpkg -i cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
      sudo apt update
      sudo apt install cuda
    4. 设置环境变量(添加至~/.bashrc):
    5. export PATH=/usr/local/cuda/bin:$PATH
      export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
    6. 验证CUDA安装:
    7. nvcc --version

    4. 安装Ollama并启用CUDA支持

    Ollama默认版本不包含CUDA支持,需从源码编译或下载支持CUDA的二进制文件。

    1. 克隆Ollama官方仓库:
    2. git clone https://github.com/jmorganca/ollama.git
    3. 进入目录并切换到支持CUDA的分支(如cuda分支):
    4. cd ollama
      git checkout cuda
    5. 安装依赖项:
    6. sudo apt install build-essential libgl1 libgles2 libvulkan1
    7. 构建Ollama(确保CUDA环境已正确配置):
    8. make
    9. 将生成的可执行文件复制到系统路径:
    10. sudo cp bin/ollama /usr/local/bin/

    5. 验证Ollama是否启用CUDA支持

    完成安装后,需验证Ollama是否成功启用GPU加速:

    1. 启动Ollama服务:
    2. ollama serve
    3. 在另一个终端窗口运行模型(如llama2):
    4. ollama run llama2
    5. 查看GPU使用情况:
    6. nvidia-smi
    7. 若看到GPU利用率上升,说明CUDA已成功启用。

    6. 常见问题与解决方法

    问题描述可能原因解决方法
    no CUDA-capable device is detectedNVIDIA驱动未正确安装或CUDA环境未配置重新安装NVIDIA驱动并检查环境变量
    nvcc not foundCUDA Toolkit未正确安装确认CUDA安装路径并设置环境变量
    无法编译Ollama源码依赖库缺失或版本不兼容检查依赖项并尝试使用官方二进制文件
    GPU利用率未上升模型未启用GPU加速或CUDA支持未生效确认Ollama是否为支持CUDA的版本

    7. 可选:使用Docker部署Ollama + CUDA

    若希望简化部署流程,可使用NVIDIA官方提供的CUDA容器环境:

    1. 安装NVIDIA Container Toolkit:
    2. sudo apt install nvidia-container-toolkit
      sudo systemctl restart docker
    3. 拉取支持CUDA的Ollama镜像(需社区提供):
    4. docker pull ollama/ollama:cuda
    5. 运行容器:
    6. docker run --gpus all -d -v ollama:/root/.ollama -p 11434:11434 ollama/ollama:cuda

    8. 结语

    通过上述步骤,您可以在Ubuntu系统上成功安装Ollama并启用CUDA支持,实现基于GPU的模型推理加速。后续可结合模型量化、多GPU并行等技术进一步优化性能。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 已采纳回答 10月23日
  • 创建了问题 8月28日