最新最热精华悬赏待回答 筛选
  • 14

    回答

大家好,我尝试finetune BERT 模型,但是始终遇到相同的报错RuntimeError: CUDA error: device-side assert triggeredCUDA kernel

KerwinFu
采纳率0%
  • 2

https://github.com/dmis-lab/biobert,这个biobert项目github介绍的都是怎么进行训练微调,但是我想问下大家项目部署下来之后,怎么运行完成自己的NER或者是R

  • bert
  • 5
  • 2024-08-22 11:13
坦帕湾的海盗
采纳率100%
  • 1

    回答

求一份电力领域预训练语言模型Electric-BERT源码看到论文中有结合电力领域预训练模型做文本编码表示层

  • 1

    回答

使用BERT模型解决NLP分类问题时,发现以下情况容易分类错误: (其他文本),一号开关分闸,(其他文本),一号开关合闸,(其他文本) 总体而言应当认为该文本是一个合闸动作,因为合闸在后,但是有会被识

  • 1

    回答

bert服务开启不报错,但一直卡住 和下面链接提到的问题一样,但是按他说的加了-cpu后缀问题仍然没解决https://blog.csdn.net/weixin_45487542/article/de

qq_41450522
采纳率0%
  • 2

想问一下各位,推荐系统中曝光量是怎么统计的呢,我思路是将已经查询出的user_id进行value_count,看一下分布,或者直接label encoder 然后看一下斯皮尔满相关性,但有很多其他都f

weixin_52098007
采纳率55.6%
  • 3

    回答

OSError: Unable to load weights from pytorch checkpoint file for 'D:/Anaconda/envs/DL0/Lib/site-pack

  • bert
  • 16
  • 2024-05-24 19:12
  • 4

    回答

请教一下,这是我自己搭建的BERT-LSTM实体识别模型,输出全是0类别,其他类别一个都没识别出来。请问是哪里出了问题?

  • 3

    回答

解决bert-cnn文本情感分析代码bug也直接收bert-cnn文本情感分析项目

  • 19

    回答

深度学习项目,前后端连接不上,运行程序调转到前段页面失败。项目调试跑不通。

CrazyCodePlayer..
采纳率44.4%
  • 5

    回答

google的T5论文中提到了text to text 的训练方法,即使用promt来包装输入输出进行训练。比如我进行翻译任务,我的输入便是一段描述任务的开场白然后接上翻译原文,模型的输出则是翻译结果

  • 6

    回答

在使用您发布在GitCode上的项目https://gitcode.com/tmylla/NER_ZH%E6%97%B6%E4%BB%A3%E7%A0%81%E8%BF%90%E8%A1%8C%E5%

  • 10

    回答

safetensors_rust.SafetensorError: Error while deserializing header: HeaderTooLarge

CrazyCodePlayer..
采纳率44.4%
  • 10

基于bert-base-chinese的中文文本处理python程序,要求:可以批量处理txt里面的内容,用bert库来处理文件内容,按{姓名,年龄,性别,生源地,病史,病史症状,初诊,处方,二诊,处

穆穆13
采纳率100%
  • 3

    回答

给Bert一段输入让他预测,在这段输入内,Bert能将第一个词的预测结果用于之后所有的预测吗?

  • 3

    回答

微调中文bert,训练它采用CPU跑为啥啊?可是我的电脑上有GPU啊,不知道怎么改这个,跑得真的好慢啊。看了好几个博客,都没怎么提,都是在GPU上的跑的,到俺这咋就在CPU跑啊?哭了我是tensorf

  • 5

如何对文本进行向量化,我改怎么确定每句话有多长呢?向量化后如何检索

qq_26083679
采纳率69.2%
  • 21

    回答

如图,由于得出的主体数量太多,手动修改了nr_topic的取值,该怎么把这一步用算法描述出来

Qoo_1210
采纳率0%
  • 2

    回答

用bertopic做主题分类,因为主题数量太多,改了改nr_topic的参数,如图,导师让我用算法描述出来,这该怎么进行描述

  • 2

    回答

我想把Bert的tensorflow版本转换为torch版本,运用一个脚本叫做python convert_bert_original_tf2_checkpoint_to_pytorch.py,这个脚

  • 3

    回答

bert的tf版本转换到torch 为什么我再转换bert的tf版本到torch版本的时候,总是显示找不到这个文件,这个难道不是一个脚本吗?

  • 3

1.本人按照b站上的视频(链接如下)尝试在pycharm上运行Google开源Bert模型且已配置脚本形参(代码未作改动)https://www.bilibili.com/video/BV1Yo4y1

xf126335
采纳率100%
  • 1

    回答

OSError: We couldn't connect to 'https://huggingface.co' to load this file, couldn't find it in the

  • 1

    回答

第一次使用BERT_CCPoem,能不能帮忙看看有什么问题。 import pandas as pd from transformers import BertTokenizer, BertForSe

  • 2

    回答

现在在跑github的一个项目,要求的torch版本是1.7.0+cu101,但是安装后报错CUDA error:nokernal image is available,所以后面安装了torch1.1

  • 1

    回答

第一次接触深度学习,想跑模型的时候提示报错run_tcm.py: error: the following arguments are required: --differentiation_elem

  • 1

    回答

您好,我已按照您的步骤在train_ms文件中提前添加了那个语句,但是最后我运行结果还是报错,可以麻烦您看下应该怎么解决吗

  • 1

    回答

有人试过用d2l包的bert模型实现自然语言推断的输入和输出判断功能吗https://discuss.d2l.ai/t/bert/5718/7?u=pychef

回答 PyChef
采纳率28.6%
  • 1

    回答

我在bert实现单据文本分类时,如何减少训练数据的规模,我只想使用前2000条数据,请各位帮帮我,以下是我的代码: import numpy as np from datasets import lo

  • 2

    回答

bert模型,在mac上,环境为py3.8,tensorflow2.13版本传入超参数 然后运行报错如下 我应该如何修改?

回答 ehon07
采纳率0%