早八爱摸鱼 2024-10-07 18:20 采纳率: 0%
浏览 58

各位.我在在huggingface加载一个模型出现这个错误.好像是环境问题.写着什么cache没有定义.该怎么解决o(╥﹏╥)o求帮助..

这是在 hugging face 复制的代码,不知道哪里运行错了,原来配置过 transformers 的环境

img

img

  • 写回答

3条回答 默认 最新

  • 檀越@新空间 2024-10-07 18:21
    关注

    晚上好🌙🌙🌙
    本答案参考ChatGPT-3.5

    这个问题是由于Hugging Face的transformers库中使用了一个旧版本的Cache模块导致的。Cache模块在transformers库中已经被移除,并且它的工作原理和使用场景与原始的torch库不同。

    为了解决这个问题,你需要使用torch的Cache模块来代替.Cache模块。以下是相应的修改代码:

    import torch
    
    from transformers import AutoModelForCausalLM, get_linear_schedule_with_warmup
    
    # 配置模型和超参数
    config = {
        "optimizer": "adam",
        "num_train_epochs": 3,
        "lr": 1e-5,
    }
    
    # 初始化模型和数据集
    model = AutoModelForCausalLM.from_pretrained("q-future/compare2score", config=config)
    train_dataset = ... # 你的训练数据集
    test_dataset = ...
    
    # 使用新模型训练数据集
    model.train()
    for epoch in range(num_train_epochs):
        for i, batch in enumerate(train_dataset):
            optimizer.zero_grad()
            outputs = model(batch)
            loss = outputs.loss
            loss.backward()
            optimizer.step()
    
    # 在验证阶段使用优化器优化模型
    optimizer = ... # 创建新的优化器
    for epoch in range(num_val_epochs):
        for i, batch in enumerate(test_dataset):
            optimizer.zero_grad()
            outputs = model(batch)
            loss = outputs.loss
            loss.backward()
            optimizer.step()
    

    注意:在更新transformers库时,需要确保你在正确的位置安装了该库,并且已经更新到最新版本。

    评论

报告相同问题?

问题事件

  • 创建了问题 10月7日