硬件: 4090+32G内存
环境:win10下wsl2,wsl2下conda,py3.10,
问题:按照https://qwen.readthedocs.io/zh-cn/latest/getting_started/quickstart.html 中,安装vllm后运行python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat,出现以下情况

显卡情况如下:

我该如何解决
硬件: 4090+32G内存
环境:win10下wsl2,wsl2下conda,py3.10,
问题:按照https://qwen.readthedocs.io/zh-cn/latest/getting_started/quickstart.html 中,安装vllm后运行python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat,出现以下情况


以下内容由CHATGPT及笑面虎共同生成、有用望采纳:
您想要解决的问题是在Windows 10下使用WSL2(Windows Subsystem for Linux 2)环境中部署VLLM(一个大型语言模型)Qwen1.5模型时遇到的运行错误。
根据您提供的信息和图片内容,问题可能出现的原因包括:
由于问题可能与环境配置有关,没有特定的代码可以解决这个问题,但是以下步骤可能会帮助您排查问题:
# 激活Conda环境
conda activate your_env_name
# 检查Python版本
python --version
# 检查Conda环境中安装的库
conda list
# 尝试重新安装VLLM
pip install vllm
# 运行VLLM模型
python -m vllm.entrypoints.openai.api_server --model Qwen/Qwen1.5-7B-Chat
在WSL2的终端中运行上述命令,确保您已经激活了正确的Conda环境。
如果环境配置正确,上述命令应该能够成功运行VLLM模型,不会出现错误信息。
请根据这些步骤尝试解决问题,如果问题依然存在,建议查看相关文档或者寻求社区的帮助。