python hanlp分词,部分自定义词典不起作用?

在使用python版 hanlp进行分词,有自定义词典“亚胺培南、西司他丁”。对文本“亚胺培南西司他丁”进行分词时,为什么会分出“[亚胺/gb, 培/v, 南西/nrf, 司/ng, 他/rr, 丁/ng]”,如何强制使用自定义词典,期望分词为“[亚胺培南/kw,西司他丁/kw]”

1个回答

如果用jieba分词的话,应该可以自定义词频,提高自定义词的优先级
jieba.add_word('亚胺培南', freq=20000)
jieba.add_word('西司他丁', freq=20000)
list(jieba.cut('亚胺培南西司他丁'))

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!