如题,使用jieba包,设置stopwords文件时,对英文单词不起作用。
请问是这个包本来就如此?
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

jieba分词的停用此表,为什么对英文不起作用?
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
关注
不知道你这个问题是否已经解决, 如果还没有解决的话:- 给你找了一篇非常好的博客,你可以看看是否有帮助,链接:jieba中文分词的实现(含去除停用词,注释详尽,欢迎批评指导)
如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 以帮助更多的人 ^-^本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报微信扫一扫
点击复制链接分享
编辑预览轻敲空格完成输入- 显示为
- 卡片
- 标题
- 链接
评论按下Enter换行,Ctrl+Enter发表内容
编辑
预览

轻敲空格完成输入
- 显示为
- 卡片
- 标题
- 链接
报告相同问题?
提交
- 2020-09-20 09:33首先,jieba分词器的安装非常简便,只需要通过Python的包管理工具pip即可完成,支持Python 2和3。安装命令如下: ```bash pip install jieba ``` jieba库支持三种分词模式: 1. **精确模式**:这是默认模式,旨在尽...
- 2024-12-23 08:44jieba分词是基于Python的一个高效的中文分词工具,广泛应用于中文文本处理。它支持三种分词模式:精确模式、全模式、搜索引擎模式。哈工大停用词表是一份用于文本分析的常用词列表,由哈尔滨工业大学自然语言处理...
- 2018-03-28 03:572. **词典**:在jieba分词中,词典起着至关重要的作用。`jieba_dict`文件很可能是jieba分词库的内置词典,包含了大量常用词汇及其频率信息。词典是分词算法的基础,用于确定词语间的边界,确保分词的准确性。用户也...
- 2024-01-20 00:13jieba停用词分词表
- 2023-03-23 13:02Python LDA主题模型 NLP自然语言处理 jieba分词停用词标点符号中文预处理 """ 加载初始数据信息 str:文件传输路径 index:所需真实值索引列表 """ """ 去掉文本中的空格 input:our_data为list文本数据 output:去除...
- 2021-11-16 04:37jieba分词工具是Python中广泛使用的中文分词库,尤其在自然语言处理(NLP)领域中扮演着重要角色。这个工具包提供了一个高效、易用的接口,能够对中文文本进行精确、全模式和搜索引擎模式的分词。jieba库支持动态...
- 2021-12-24 09:18文件内包含 jieba 百度60万+分词词库(带词性权重和不带词性权重的文件各一份),附带停用词词库,词性和权重由机器学习等技术手段生成,持续优化中,欢迎私信提供宝贵意见。
- 2024-03-24 00:03在这些题目中,“jieba分词”是一项常见的基本操作题,主要考察考生对Python进行中文文本处理的能力。 jieba是一个流行的Python第三方库,专门用于中文分词。中文分词是将连续的汉字序列切分成具有独立语义的词语...
- 2023-06-05 00:00艾派森的博客 本文将手把手教会你使用jieba库进行中文分词和去除停用词,这是学会文本分析的必经之路!
- 2020-11-20 14:43weixin_39857480的博客 上一篇文章介绍了利用python进行SEO词库去重,去重后需要对现有的词库进行去停止词操作,这里我们主要利用到了jieba分词的搜索引擎模式cut_for_search() .去停止词主要利用了停止词词库进行去重set(jiebas)-set...
- 2021-11-19 15:04Dr.Petrichor的博客 百度网盘地址在链接: ...停用词表 stopwords.txt,四川大学和哈工大的自己选择。微博原始数据 all_data.txt(示例)处理结果 out.txt(示例)采用Jieba分词并去停用词。
- 2021-12-03 13:46阿丢是丢心心的博客 用python对单一微博文档进行分词——jieba分词(加保留词和停用词)
- 2019-02-12 09:33Takio_的博客 本文主要为【爬取百度搜索内容页广告均数】提供关键词文件,主要做输入文件的分词功能,并写入key_...函数功能主要为调用简单的jiaba分词(stripdata函数)并进行停用词去除(stripword函数) main函数为creat(),可...
- 2020-11-20 19:52weixin_39668527的博客 展开全部import jieba# 创建停2113用词52614102listdef stopwordslist(filepath):stopwords = [line.strip() for line in open(filepath, 'r', encoding='utf-8').readlines()]return stopwords# 对句子进行分词def ...
- 没有解决我的问题, 去提问
联系我们(工作时间:8:30-22:00)
400-660-0108kefu@csdn.net在线客服
- 京ICP备19004658号
- 经营性网站备案信息
公安备案号11010502030143
- 营业执照
- 北京互联网违法和不良信息举报中心
- 家长监护
- 中国互联网举报中心
- 网络110报警服务
- Chrome商店下载
- 账号管理规范
- 版权与免责声明
- 版权申诉
- 出版物许可证
- ©1999-2025北京创新乐知网络技术有限公司