编程小白@ 2023-03-09 09:58 采纳率: 93.9%
浏览 12
已结题

transformsers的pipeline函数支持自定义模型输入么

使用transformsers的pipeline函数:
QA_tokenizer = AutoTokenizer.from_pretrained(model_path)
QA_model = MRC_model(model_path)
QA = pipeline('question-answering', model=QA_model, tokenizer=QA_tokenizer)
其中QA_tokenizer 是bert预训练模型给定的,QA_model 是自定义网络训练出来的ckpt格式的模型,请问这样会有什么问题么?
也就是说pipeline的模型输入支持自定义格式么,还是必须得是类似于官方bert模型的bin格式模型之类的?

  • 写回答

1条回答 默认 最新

  • IT小哥哥呀 2023-03-09 11:21
    关注

    1、从代码上看,没有明显的问题。pipeline函数支持自定义模型,只要满足输入和输出格式的要求即可。
    2、pipeline函数的模型输入支持多种格式,不仅仅限于官方的BERT模型格式(例如.pt、.bin、.h5等格式)。在使用自定义模型时,只需要将模型导入到Python中,并将模型传递给pipeline函数即可。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 3月17日
  • 已采纳回答 3月9日
  • 创建了问题 3月9日