使用transformsers的pipeline函数:
QA_tokenizer = AutoTokenizer.from_pretrained(model_path)
QA_model = MRC_model(model_path)
QA = pipeline('question-answering', model=QA_model, tokenizer=QA_tokenizer)
其中QA_tokenizer 是bert预训练模型给定的,QA_model 是自定义网络训练出来的ckpt格式的模型,请问这样会有什么问题么?
也就是说pipeline的模型输入支持自定义格式么,还是必须得是类似于官方bert模型的bin格式模型之类的?
transformsers的pipeline函数支持自定义模型输入么
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-
1条回答 默认 最新
IT小哥哥呀 2023-03-09 11:21关注1、从代码上看,没有明显的问题。pipeline函数支持自定义模型,只要满足输入和输出格式的要求即可。
2、pipeline函数的模型输入支持多种格式,不仅仅限于官方的BERT模型格式(例如.pt、.bin、.h5等格式)。在使用自定义模型时,只需要将模型导入到Python中,并将模型传递给pipeline函数即可。本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏 举报