你好 我运行现在没有 summarization的任务 模型地址有吗
https://blog.csdn.net/weixin_42527589/article/details/158299321
你好 我运行现在没有 summarization的任务 模型地址有吗
https://blog.csdn.net/weixin_42527589/article/details/158299321
上午好☀️☀️☀️️
本答案参考通义千问
你好!你提到的 RexUniNLU 是一个基于 Transformer 架构的自然语言理解模型,主要用于 意图识别、槽位提取、语义相似度计算 等任务,而不是用于 新闻摘要生成(summarization)。因此,RexUniNLU 并不支持直接进行新闻摘要生成任务。
RexUniNLU 的功能定位:
不支持的任务:
HuggingFace 提供了大量适用于 文本摘要 的预训练模型,例如:
transformers 库)from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
# 加载预训练模型和分词器
model_name = "facebook/bart-large-cnn" # 适合新闻摘要的模型
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# 输入文本(假设是一篇新闻)
text = """
人工智能(AI)正在迅速改变我们的生活和工作方式。从自动驾驶汽车到智能助手,AI 技术已经渗透到各个领域。随着算法的不断进步,AI 正在变得越来越强大。然而,这也带来了许多伦理和社会问题。例如,AI 是否应该拥有自主决策权?如何确保 AI 不会滥用?这些问题仍然是当前研究的重点。
"""
# 进行摘要生成
inputs = tokenizer(text, return_tensors="pt", max_length=512, truncation=True)
outputs = model.generate(inputs["input_ids"], max_length=150, num_beams=4, early_stopping=True)
# 解码输出
summary = tokenizer.decode(outputs[0], skip_special_tokens=True)
print("摘要:", summary)
摘要:人工智能正在迅速改变我们的生活和工作方式,从自动驾驶汽车到智能助手,AI 技术已经渗透到各个领域。
如果你有特定的数据集,可以使用如下步骤训练自己的摘要模型:
HuggingFace Transformers 或 PyTorch 实现模型| 模型名称 | GitHub 地址 | 用途 | |----------|-------------|------| | BART | https://github.com/huggingface/transformers | 强大的序列到序列模型 | | PEGASUS | https://github.com/google-research/pegasus | 专为摘要设计的模型 | | T5 | https://github.com/google-research/t5 | 多任务通用模型 |
如需进一步帮助,请随时告诉我!