• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 前端
  • 大数据
  • 人工智能
  • 运维
  • 服务器
  • 数据结构与算法
  • 开发工具
  • 嵌入式
  • 其他
  • 网络
  • 后端
  • Java
  • 微软技术
  • 移动开发
  • 学习和成长
  • 游戏
  • 硬件开发
  • 吐槽问答
  • 小程序
  • 测试
  • 安全
  • Python
  • 云计算
  • 设计
  • 软件工程
  • 开放平台
  • PHP
  • 多彩生活
  • 区块链
  • 搜索
  • HarmonyOS
  • 产品/运营
  • 设计模式
  • 亚马逊云开发者
最新最热精华悬赏待回答 筛选
  • 0

    回答

问题遇到的现象和发生背景 用代码块功能插入代码,请勿粘贴截图 我想要达到的结果 请问大家这个bug怎么解决?

  • nlp
  • 9
  • 2022-09-28 17:16
  • 4

    回答

问题遇到的现象和发生背景 试图运行Glove模型 问题相关代码,请勿粘贴截图 from glove import Glovefrom glove import Corpus 运行结果及报错内容 发

weixin_38911685
采纳率50%
  • 3

    回答

求DUC2002完整的数据集,是关于文本摘要的,需要下载好的数据集,而不是数据集获取指南,我知道官方网站提供了获取数据源的方式,但是没联系上。万分感谢!

  • ¥5
  • nlp
  • 46
  • 2022-08-28 22:54
流泪&枯萎
采纳率0%
  • 1

    回答

gpt2文本生成的。同样的模型在本地生成文本非常好,把模型部署到hugging face上生成出来的文本非常垃圾、谁知道咋回事的 能解决问题的可红包300酬谢 解决过类似问题的私信我

回答 夜刺
采纳率0%
  • 1

做外贸网站优化,需要生成大量文章,目前项目需求是:给定关键词,然后用AI自动生成文章,怎样让生成的文章具有一定的行业相关性;如果要自己做行业相关模型,大概需要什么样的思路,需要多少语料,主要成本在哪里

WebTrends
采纳率100%
  • 2

问题遇到的现象和发生背景 anaconda安装spacy库 问题相关代码,请勿粘贴截图 from spacy.tarining import Example 运行结果及报错内容 ModuleNotFo

m0_61324111
采纳率50%
  • 15

    回答

想要下载中科院心理研究所研发的TextMind(文心),一款针对简体中文的文本分析工具。 原本是可以自行从官网下载使用的,但是官网打不开了。原官方网址:http://ccpl.psych.ac.cn/

Silent_Rain_
采纳率0%
  • 1

    回答

如题,使用pip3 install stanza后,按照官方文档调用如下代码: import stanza nlp = stanza.Pipeline('en', "D:/stanza_resour

  • 1

    回答

如题,请问大家有哪些可用于对英文文本进行【语义角色标注(SRL)】的python第三方库?

  • 2

    回答

这个是想在Tokenizer的帮助下对文本的所有单词进行标记。大家帮忙看看一下,这个报错应该怎么解决呢?

  • 1

    回答

问题遇到的现象和发生背景 https://github.com/MaartenGr/BERTopic运行这个仓库的代码。下载成功,然后运行了他给的quick start里面的5行代码,运行结束后也没有

回答 f�f�
采纳率66.7%
  • 1

请问如何把这个能改成基于django框架,通过web再浏览器上实现智能回答 import osimport timeimport loggingfrom collections import dequ

m0_51422996
采纳率66.7%
  • 1

    回答

在使用bert的时候我遇到这个报错:requests.exceptions.HTTPError: 404 Client Error: Not Found for url: https://huggin

  • 1

    回答

在使用bert的时候出现如下错误:requests.exceptions.HTTPError: 404 Client Error: Not Found for url: https://hugging

  • 4

    回答

知识图谱这块,刚入门,有没有带我飞,把我领进门啊,是关于知识图谱这方面的算法实现等。

Suc20
采纳率0%
  • 2

输出词向量词汇中总是夹杂着编码 问题相关代码,请勿粘贴截图 from re import Aimport warningsimport gensimfrom matplotlib.pyplot im

weixin_38911685
采纳率50%
  • 2

    回答

现在短视频里存在很多虚拟人,比如柳夜熙,AYAYI,李未可,Ling等,联合各大品牌方来做市场营销,但这些虚拟人的制作成本高和周期长,普通人还无法得到。如果想探究大众对虚拟人/虚拟分身的需求,现在有多

MuObver
采纳率0%
  • 1

book="Harry Potter and the Sorcerer's Stone.txt" from nltk import word_tokenize,pos_tag #分词、词性标注f

soonwalker
采纳率80%
  • 3

short_Cases1 = ["我们伟大祖国的每一寸领土都绝对不能也绝对不可能从中国分割出去"]import jiebaimport jieba.posseg as psegimport thula

强扭的甜不瓜
采纳率85.7%
  • 1

    回答

如图,如何避免jieba分词将时间词分割开,比如 ['4', '月', '28', '日', ',', '李大钊', '在', '北京', '英勇', '就义', '。'] #希望分出来的

回答 心悦琴
采纳率87.7%
  • 4

    回答

doccano标注完的数据导出没有标注信息,label中relation和entity都是空的,后台也不报错。求解答

醐嶧
采纳率0%
  • 3

    回答

if __name__ == '__main__': fdir = '/wiki_zh_word2vec-master/wiki_zh_word2vec-master/' model

  • 2

问题遇到的现象和发生背景 在使用chatterbot训练模型的时候,发生这个报错 问题相关代码,请勿粘贴截图 from chatterbot import ChatBotimport spacyfro

Dr.Toms
采纳率100%
  • 1

    回答

最近我在研究nlp领域,但是我一直有一个疑惑。就是现在我手中有一个有标签的训练集,一个无标签的测试集,但是还有一个很大的无标签的数据用于给我给我们作为预训练使用,但是我不理解使用无标签的数据作为预训练

回答 Thefan1
采纳率50%
  • 1

    回答

在学习文本特征提取,看了篇论文,里面处理的方法是先构建词频表,取词频大于10构建关键词表,再生成向量矩阵: 但是现在我得到嵌套列表统计得到的词频后不知道接下来要怎么弄,数据大概是这个样子 主要是想得到

  • 1

在做英文文本的自然语言处理,进行词频统计时遇到了问题前面部分形成了几种格式的数据,但如果想进行数据按行词频统计都会出现问题:1.有嵌套列表数据,如何按内部列表进行词频统计? 如有:[[a,b,c

赤点规避
采纳率66.7%
  • 2

问题遇到的现象和发生背景 代码已经写好了,一开始运行时显示缺少gensim、pandas和nltk包,后来我安装上了,但是 运行时还是报错。 问题相关代码,请勿粘贴截图 # -*- coding: u

  • 2

    回答

想问一下,nlp如何与机械相关结合,由于是机械硕士,但是走了计算机的自然语言处理,在论文上需要与机械挂钩,有什么好的想法吗?

  • nlp
  • 19
  • 2022-03-01 10:31
MASTER-松哥
采纳率25%
  • 2

大家好,现在已经jieba标注完了词性,并将标注的结果放在了新文档里。请问如何将同类词性的词语分在一起呢?

  • 1

    回答

一般的中文标注都是通过HMM或者CNN+LSTM,想知道只用CNN怎么实现词性标注。