这是在 hugging face 复制的代码,不知道哪里运行错了,原来配置过 transformers 的环境


这是在 hugging face 复制的代码,不知道哪里运行错了,原来配置过 transformers 的环境


晚上好🌙🌙🌙
本答案参考ChatGPT-3.5
这个问题是由于Hugging Face的transformers库中使用了一个旧版本的Cache模块导致的。Cache模块在transformers库中已经被移除,并且它的工作原理和使用场景与原始的torch库不同。
为了解决这个问题,你需要使用torch的Cache模块来代替.Cache模块。以下是相应的修改代码:
import torch
from transformers import AutoModelForCausalLM, get_linear_schedule_with_warmup
# 配置模型和超参数
config = {
"optimizer": "adam",
"num_train_epochs": 3,
"lr": 1e-5,
}
# 初始化模型和数据集
model = AutoModelForCausalLM.from_pretrained("q-future/compare2score", config=config)
train_dataset = ... # 你的训练数据集
test_dataset = ...
# 使用新模型训练数据集
model.train()
for epoch in range(num_train_epochs):
for i, batch in enumerate(train_dataset):
optimizer.zero_grad()
outputs = model(batch)
loss = outputs.loss
loss.backward()
optimizer.step()
# 在验证阶段使用优化器优化模型
optimizer = ... # 创建新的优化器
for epoch in range(num_val_epochs):
for i, batch in enumerate(test_dataset):
optimizer.zero_grad()
outputs = model(batch)
loss = outputs.loss
loss.backward()
optimizer.step()
注意:在更新transformers库时,需要确保你在正确的位置安装了该库,并且已经更新到最新版本。