tschen666 2023-07-05 23:52 采纳率: 33.3%
浏览 37

我用的阿里云服务器运行了ChatGLM,现在我想结束他的运行释放他占用的显存,我应该如何做?

运行一次就占用一部分,运行一次就占用一部分,但是好像停不掉正在运行的GLM模型,显存一直占用着

img

  • 写回答

2条回答 默认 最新

  • 自在猫先生 2023-07-06 11:53
    关注

    源于chatGPT仅供参考

    要结束正在运行的ChatGLM模型并释放显存,您可以按照以下步骤进行操作:
    
    1. 找到运行ChatGLM模型的终端或命令行界面。
    
    2. 在终端或命令行界面中,按下"Ctrl+C"组合键,这将发送一个中断信号给正在运行的程序。
    
    3. 等待一段时间,让系统处理中断信号并停止运行模型。这可能需要一些时间,具体取决于您的系统和运行的模型规模。
    
    4. 检查显存的使用情况:使用适当的工具(如nvidia-smi)检查GPU显存的使用情况,确保已经释放了被占用的显存。运行以下命令来查看当前的显存使用情况:
    
    
       nvidia-smi
    
    
       如果显存没有及时释放,请继续执行以下步骤。
    
    5. 杀死相关进程(可选):如果模型仍然在运行并且未能释放显存,您可以尝试手动杀死相关的进程。在命令行界面中运行以下命令以杀死进程:
    
      
       sudo fuser -v /dev/nvidia*
       
    
       这将显示正在使用GPU资源的进程,并提供相应的PID(进程ID)。然后使用`kill`命令加上PID来杀死该进程,例如:
    
      
       kill -9 <PID>
    
    
       注意:请小心使用`kill -9`命令,因为它会强制终止进程。
    
    6. 再次检查显存的使用情况:重复步骤4,确保显存已经完全释放。
    
    请注意,以上步骤可能因操作系统和所使用的GPU驱动程序而有所不同。根据您的环境和需求,您可能需要参考适当的文档或咨询相关的技术支持来执行这些操作。
    
    
    评论

报告相同问题?

问题事件

  • 创建了问题 7月5日