在使用python版 hanlp进行分词,有自定义词典“亚胺培南、西司他丁”。对文本“亚胺培南西司他丁”进行分词时,为什么会分出“[亚胺/gb, 培/v, 南西/nrf, 司/ng, 他/rr, 丁/ng]”,如何强制使用自定义词典,期望分词为“[亚胺培南/kw,西司他丁/kw]”
1条回答 默认 最新
- Looooking 2019-04-18 17:08关注
如果用jieba分词的话,应该可以自定义词频,提高自定义词的优先级
jieba.add_word('亚胺培南', freq=20000)
jieba.add_word('西司他丁', freq=20000)
list(jieba.cut('亚胺培南西司他丁'))解决评论 打赏 举报无用 1
悬赏问题
- ¥15 HFSS 中的 H 场图与 MATLAB 中绘制的 B1 场 部分对应不上
- ¥15 如何在scanpy上做差异基因和通路富集?
- ¥20 关于#硬件工程#的问题,请各位专家解答!
- ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
- ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
- ¥30 截图中的mathematics程序转换成matlab
- ¥15 动力学代码报错,维度不匹配
- ¥15 Power query添加列问题
- ¥50 Kubernetes&Fission&Eleasticsearch
- ¥15 報錯:Person is not mapped,如何解決?