NPCMRZ 2024-05-13 17:58 采纳率: 0%
浏览 846
已结题

wsl2 vllm qwen1.5部署问题

硬件: 4090+32G内存
环境:win10下wsl2,wsl2下conda,py3.10,
问题:按照https://qwen.readthedocs.io/zh-cn/latest/getting_started/quickstart.html 中,安装vllm后运行python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat,出现以下情况

img


显卡情况如下:

img


我该如何解决

  • 写回答

30条回答 默认 最新

  • 笑面虎 2024-05-13 17:58
    关注

    以下内容由CHATGPT及笑面虎共同生成、有用望采纳:


    您想要解决的问题

    您想要解决的问题是在Windows 10下使用WSL2(Windows Subsystem for Linux 2)环境中部署VLLM(一个大型语言模型)Qwen1.5模型时遇到的运行错误。

    图片内容

    1. 第一张图片显示了一系列的Python错误信息,这些错误信息涉及到模块导入、环境配置以及可能的模型加载问题。
    2. 第二张图片显示了您的NVIDIA GeForce RTX 4090显卡的状态,包括驱动版本、CUDA版本以及当前没有运行的GPU进程。

    问题出现原因

    根据您提供的信息和图片内容,问题可能出现的原因包括:

    • 环境配置错误:可能是由于WSL2下的环境配置不正确,导致Python无法正确加载VLLM模型。
    • 模块兼容性问题:您的环境中可能存在不兼容的模块或版本,导致运行时出错。
    • 模型加载问题:可能是模型文件损坏或者模型路径指定不正确,导致无法加载Qwen1.5模型。
    • 硬件驱动问题:虽然您的显卡驱动和CUDA版本看起来是正确的,但是可能存在与WSL2或Python环境的兼容性问题。

    问题解决方案

    1. 检查环境配置:确保您的WSL2环境中的Python版本、Conda环境以及所有必要的依赖库都已正确安装。
    2. 更新驱动和CUDA:确保您的NVIDIA驱动和CUDA版本是最新的,并且与WSL2兼容。
    3. 检查模型路径:确保您指定的模型路径是正确的,并且模型文件没有损坏。
    4. 运行环境测试:在WSL2中运行一些基本的Python脚本,确保Python环境能够正常工作。
    5. 查看日志和错误信息:仔细检查错误日志,寻找可能的线索,比如缺少的库或者错误的模块路径。

    提供代码

    由于问题可能与环境配置有关,没有特定的代码可以解决这个问题,但是以下步骤可能会帮助您排查问题:

    # 激活Conda环境
    conda activate your_env_name
    
    # 检查Python版本
    python --version
    
    # 检查Conda环境中安装的库
    conda list
    
    # 尝试重新安装VLLM
    pip install vllm
    
    # 运行VLLM模型
    python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat
    

    代码运行方式

    在WSL2的终端中运行上述命令,确保您已经激活了正确的Conda环境。

    代码预期运行结果

    如果环境配置正确,上述命令应该能够成功运行VLLM模型,不会出现错误信息。

    推荐相关链接

    请根据这些步骤尝试解决问题,如果问题依然存在,建议查看相关文档或者寻求社区的帮助。

    评论 编辑记录

报告相同问题?

问题事件

  • 系统已结题 5月21日
  • 创建了问题 5月13日