- 4
回答
- 3
回答
请运用 BERT 和 LSTM对亚马逊英文图书评论进行情感分析(情感分为积极、中级、消极的情感属性、并包括内容、价格、物流、印刷、装订、作者、其他等属性)。BERT 负责生成上下文嵌入,提供深度语义信
- 4
回答
- 2
回答
请问,我目前在学习嵌入方面的内容,看到sentence-Transformer这个库。从它官方文档中的介绍,和github上的引文,我理解sentence-Transformers就是sentence
- 2
回答
- 1
回答
如图,因为没法翻墙连不上网站那个什么库,手动在本地下载了安装包,怎么修改代码都会报错说文件名不能加—或者— —,问题是文件名没有— 最开始在pycharm的setting里下载了sentencep
- 30
回答
https://github.com/valuesimplex/FinBERT有哪位老哥可以帮忙讲解下如何使用这个这个预训练模型进行金融文本情感分析,纯xb一个。感谢了。邮箱:shinyuna2023
- ¥15
- bert
- tensorflow
- python
- 461
- 2024-11-29 17:21
- 1
因为不是计算机专业的,是管理学专业,看论文没看懂,球问写论文需要对某领域的几百篇文献的主题用BERT进行主题识别,导儿说不能只用bert,还要优化模型,求问bert现在和什么模型结合比较好做(╥﹏╥)
- 1
在运行这里,AI修改的代码跑卡在这里不动了,是哪里错了吗,我看不出来。是Qwen2.5-7B有4个model,我导在同一个的问题,还是哪里出现问题了?求大家帮忙
- 14
回答
大家好,我尝试finetune BERT 模型,但是始终遇到相同的报错RuntimeError: CUDA error: device-side assert triggeredCUDA kernel
- 2
https://github.com/dmis-lab/biobert,这个biobert项目github介绍的都是怎么进行训练微调,但是我想问下大家项目部署下来之后,怎么运行完成自己的NER或者是R
- 1
回答
求一份电力领域预训练语言模型Electric-BERT源码看到论文中有结合电力领域预训练模型做文本编码表示层
- 1
回答
使用BERT模型解决NLP分类问题时,发现以下情况容易分类错误: (其他文本),一号开关分闸,(其他文本),一号开关合闸,(其他文本) 总体而言应当认为该文本是一个合闸动作,因为合闸在后,但是有会被识
- 自然语言处理
- bert
- transformer
- 9
- 2024-06-18 22:18
- 1
回答
bert服务开启不报错,但一直卡住 和下面链接提到的问题一样,但是按他说的加了-cpu后缀问题仍然没解决https://blog.csdn.net/weixin_45487542/article/de
- 2
想问一下各位,推荐系统中曝光量是怎么统计的呢,我思路是将已经查询出的user_id进行value_count,看一下分布,或者直接label encoder 然后看一下斯皮尔满相关性,但有很多其他都f
- 3
回答
OSError: Unable to load weights from pytorch checkpoint file for 'D:/Anaconda/envs/DL0/Lib/site-pack
- bert
- 26
- 2024-05-24 19:12
- 4
回答
请教一下,这是我自己搭建的BERT-LSTM实体识别模型,输出全是0类别,其他类别一个都没识别出来。请问是哪里出了问题?
- 3
回答
- 18
回答
深度学习项目,前后端连接不上,运行程序调转到前段页面失败。项目调试跑不通。
- 6
回答
- 6
回答
在使用您发布在GitCode上的项目https://gitcode.com/tmylla/NER_ZH%E6%97%B6%E4%BB%A3%E7%A0%81%E8%BF%90%E8%A1%8C%E5%
- 9
回答
safetensors_rust.SafetensorError: Error while deserializing header: HeaderTooLarge
- 9
基于bert-base-chinese的中文文本处理python程序,要求:可以批量处理txt里面的内容,用bert库来处理文件内容,按{姓名,年龄,性别,生源地,病史,病史症状,初诊,处方,二诊,处
- 3
回答
- 3
回答
微调中文bert,训练它采用CPU跑为啥啊?可是我的电脑上有GPU啊,不知道怎么改这个,跑得真的好慢啊。看了好几个博客,都没怎么提,都是在GPU上的跑的,到俺这咋就在CPU跑啊?哭了我是tensorf
- 5
- 21
回答
如图,由于得出的主体数量太多,手动修改了nr_topic的取值,该怎么把这一步用算法描述出来
- 2
回答
- 2
回答
我想把Bert的tensorflow版本转换为torch版本,运用一个脚本叫做python convert_bert_original_tf2_checkpoint_to_pytorch.py,这个脚
- bert
- tensorflow
- pytorch
- 15
- 2024-03-09 16:35