anubisdxl 2023-07-28 10:29 采纳率: 100%
浏览 7
已结题

关于#chatGLM#的问题, glm启动成功了,但是过不多久就失去响应是什么情况??

用官方提供的代码:
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("D:\data\llm\GLM", trust_remote_code=True, revision="")
model = AutoModel.from_pretrained("D:\data\llm\GLM", trust_remote_code=True, revision="").half().cuda()
model = model.eval()
response, history = model.chat(tokenizer, "你好", history=[])
print(response)
踩了无数坑之后,终于调出了问答结果,但是发现问着问着就失去响应了,大约能问20多次,就是卡在

response, history = model.chat(tokenizer, "你好", history=[])
这一句,执行不结束,也不报错,就是没响应。
或者一段时间不提问,再次提问的时候也会这样。体验就好像GLM有十分钟的使用限制一样。
我的环境是
WINDOWS10
NVIDIA A40 (47G显存)
python-3.10.11
cuda_11.3
torch-1.12
transformers 4.28.1
强制手动结束后输出如下:
File "D:\Program Files\Python310\lib\site-packages\torch\autograd\grad_mode.py", line 27, in decorate_context
return func(*args, **kwargs)
File "C:\Users\CCSTC/.cache\huggingface\modules\transformers_modules\GLM2\modeling_chatglm.py", line 1028, in chat
outputs = self.generate(**inputs, **gen_kwargs)
File "D:\Program Files\Python310\lib\site-packages\torch\autograd\grad_mode.py", line 27, in decorate_context
return func(*args, **kwargs)
File "D:\Program Files\Python310\lib\site-packages\transformers\generation\utils.py", line 1485, in generate
return self.sample(
File "D:\Program Files\Python310\lib\site-packages\transformers\generation\utils.py", line 2560, in sample
next_tokens = torch.multinomial(probs, num_samples=1).squeeze(1)
KeyboardInterrupt
想问问可能是哪里的问题?

  • 写回答

2条回答 默认 最新

  • anubisdxl 2023-07-28 15:53
    关注

    问题已找到,是我使用的虚机的关系。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(1条)

报告相同问题?

问题事件

  • 系统已结题 8月5日
  • 已采纳回答 7月28日
  • 创建了问题 7月28日

悬赏问题

  • ¥30 stm32f103c8t6制作万能红外遥控器
  • ¥15 有人会fastcrud写前端页面吗
  • ¥15 如何解除Uniaccess管控
  • ¥15 微信小程序跳转关联公众号
  • ¥15 Java AES 算法 加密采用24位向量报错如何处理?
  • ¥15 使用X11可以找到托盘句柄,监控到窗口点击事件但是如何在监听的同时获取托盘中应用的上下文菜单句柄
  • ¥45 字符串操作——数组越界问题
  • ¥15 Loss下降到0.08时不在下降调整学习率也没用
  • ¥15 QT+FFmpeg使用GPU加速解码
  • ¥15 为什么投影机用酷喵播放电影放一段时间就播放不下去了?提示发生未知故障,有什么解决办法吗?