在使用python版 hanlp进行分词,有自定义词典“亚胺培南、西司他丁”。对文本“亚胺培南西司他丁”进行分词时,为什么会分出“[亚胺/gb, 培/v, 南西/nrf, 司/ng, 他/rr, 丁/ng]”,如何强制使用自定义词典,期望分词为“[亚胺培南/kw,西司他丁/kw]”
1条回答 默认 最新
- Looooking 2019-04-18 17:08关注
如果用jieba分词的话,应该可以自定义词频,提高自定义词的优先级
jieba.add_word('亚胺培南', freq=20000)
jieba.add_word('西司他丁', freq=20000)
list(jieba.cut('亚胺培南西司他丁'))解决评论 打赏 举报无用 1
悬赏问题
- ¥15 oracle集群安装出bug
- ¥15 关于#python#的问题:自动化测试
- ¥20 问题请教!vue项目关于Nginx配置nonce安全策略的问题
- ¥15 教务系统账号被盗号如何追溯设备
- ¥20 delta降尺度方法,未来数据怎么降尺度
- ¥15 c# 使用NPOI快速将datatable数据导入excel中指定sheet,要求快速高效
- ¥15 再不同版本的系统上,TCP传输速度不一致
- ¥15 高德地图点聚合中Marker的位置无法实时更新
- ¥15 DIFY API Endpoint 问题。
- ¥20 sub地址DHCP问题