DSFEDSA 2018-10-10 09:46 采纳率: 0%
浏览 2323

python hanlp分词,部分自定义词典不起作用?

在使用python版 hanlp进行分词,有自定义词典“亚胺培南、西司他丁”。对文本“亚胺培南西司他丁”进行分词时,为什么会分出“[亚胺/gb, 培/v, 南西/nrf, 司/ng, 他/rr, 丁/ng]”,如何强制使用自定义词典,期望分词为“[亚胺培南/kw,西司他丁/kw]”

  • 写回答

1条回答 默认 最新

  • Looooking 2019-04-18 17:08
    关注

    如果用jieba分词的话,应该可以自定义词频,提高自定义词的优先级
    jieba.add_word('亚胺培南', freq=20000)
    jieba.add_word('西司他丁', freq=20000)
    list(jieba.cut('亚胺培南西司他丁'))

    评论

报告相同问题?

悬赏问题

  • ¥15 HFSS 中的 H 场图与 MATLAB 中绘制的 B1 场 部分对应不上
  • ¥15 如何在scanpy上做差异基因和通路富集?
  • ¥20 关于#硬件工程#的问题,请各位专家解答!
  • ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
  • ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
  • ¥30 截图中的mathematics程序转换成matlab
  • ¥15 动力学代码报错,维度不匹配
  • ¥15 Power query添加列问题
  • ¥50 Kubernetes&Fission&Eleasticsearch
  • ¥15 報錯:Person is not mapped,如何解決?