用户自定义词典没法用,该词典加入内存到可以识别分词出来,直接加入txt为啥不能用。不知道为啥,求大神指教。
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
hanlp的customdictionary.txt词典加入新词,标准分词没显示我所标注的词
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
2条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
samir1216 2016-04-11 03:16关注删除缓存文件 如customdictionary.txt.bin
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报
微信扫一扫点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2025-10-24 11:00我叫张土豆的博客 内容包括:极速入门指南、功能全景图(分词、词性标注、NER等)、5种自定义词典方法、性能调优checklist、10个常见问题解决方案、1.x与2.x版本对比,以及Docker部署方案。文章强调1.x版本在工业场景下的优势,提供从...
- 2020-09-18 21:25彼岸天平的博客 在Hanlp分词中,不管是标准分词器、NLP分词器还是索引分词器都不可能准确的将我们希望的结果词语分出来,尤其是我们平常用到的自定义名词或者流行语,比如:“印象笔记”、“奥利给”等,分析语句一长,分词准确性还...
- 2025-04-12 20:53五行星辰的博客 这货不仅能精准切开中文句子,还能识别地名、人名甚至网络热词!准备好让你的程序真正"读懂"中文了吗?各位被中文分词折磨得抓耳挠腮的道友们!今天要解锁的是NLP界的"倚天剑"——
- 2018-10-19 18:22风zi的博客 一、hanlp本地词典加载源码分析 hanlp在调用提供的函数处理文本时会先初始化本地词典,加载词典进入内存中 以中文分词接口为例子 1.调用分词函数入口 public class DemoAtFirstSight { public static void ...
- 2021-05-01 15:32丽英y的博客 功能:中文分词 词性标注 命名实体识别 依存句法分析 关键词提取 新词发现 短语提取 自动摘要 文本分类 拼音简繁。 (相比之下,jieba 没有依存句法分析) 版本 开发语言 本地开发语言为C++和Python 用C++实现...
- 2019-08-05 09:46adnb34g的博客 本篇文章将重点讲解HanLP的ViterbiSegment分词器类,而不涉及感知机和条件随机场分词器,也不涉及基于字的分词器。因为这些分词器都不是我们在实践中常用的,而且ViterbiSegment也是作者直接封装到HanLP类中的分词器...
- 2023-12-26 14:17惟木的博客 在java中使用hanlp进行分词。
- 2017-05-26 14:34bbzz2的博客 ansj词典加载及简要分词过程 粗略看了点ansj源代码,记录备忘。 词典等配置文件加载类 (以调用 NlpAnalysis 分词类为例): 1, MyStaticValue 初始化 NlpAnalysis 中 static 的静态变量 spli ansj词典...
- 2022-07-23 13:51biyezuopinvip的博客 *** 演示用户词典的动态增删*/// 动态增加CustomDictionary.add("攻城狮");// 强行插入CustomDictionary.insert("白富美", "nz 1024");// 删除词语(注释掉试试)// CustomDictionary.remove("攻城狮");System.out....
- 2020-02-05 19:57mantchs的博客 我们人类确知道第二种更加合理,只因为我们从小到大接触的都是第二种分词,出现的次数多,所以我们判定第二种是正确地选择。这就是利用了**统计自然语言处理**。统计自然语言处理的核心话题之一,就是如何利用统计...
- 2022-05-19 16:08宝贝企鹅的博客 最新的1.8.X的源代码没找到注释,无意中发现1.7X有注释,拿出来,以后备用。 /* * <summary></summary> * <author>He Han</author> * <email>hankcs.cn@gmail.com</email>...
- 2021-08-04 10:28努力就好其他的不管的博客 HanLP是一系列模型与算法组成的NLP工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。内部算法经过工业界和学术界考验,配套书籍《自然语言...
- 2019-10-12 14:45郝少的博客 1、hanlp理解 HanLP是一系列模型与算法组成的NLP工具包,由大快搜索主导并完全开源,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。 2、hanlp...
- 2017-09-20 18:36千丈之松的博客 支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本...
- 2025-06-16 16:502501_91537388的博客 java 使用HanLP教程说明
- 2020-09-22 12:18Soyoger的博客 中文分词有很多种,常见的比如有中科院计算所 NLPIR、哈工大 LTP、清华大学 THULAC 、斯坦福分词器、Hanlp 分词器、jieba 分词、IKAnalyzer 等。这里针对 jieba 和 HanLP 分别介绍不同场景下的中文分词应用。 jieba ...
- 2019-10-03 07:08dengtinghuan5005的博客 支持中文分词(N-最短路分词、CRF分词、索引分词、用户自定义词典、词性标注),命名实体识别(中国人名、音译人名、日本人名、地名、实体机构名识别),关键词提取,自动摘要,短语提取,拼音转换,简繁转换,文本...
- 2020-03-12 00:02米饭超人的博客 中文分词有很多种,常见的比如有中科院计算所 NLPIR、哈工大 LTP、清华大学 THULAC 、斯坦福分词器、Hanlp 分词器、jieba 分词、IKAnalyzer 等。这里针对 jieba 和 HanLP 分别介绍不同场景下的中文分词应用。 j...
- 没有解决我的问题, 去提问