DSFEDSA 2018-10-10 09:46 采纳率: 0%
浏览 2323

python hanlp分词,部分自定义词典不起作用?

在使用python版 hanlp进行分词,有自定义词典“亚胺培南、西司他丁”。对文本“亚胺培南西司他丁”进行分词时,为什么会分出“[亚胺/gb, 培/v, 南西/nrf, 司/ng, 他/rr, 丁/ng]”,如何强制使用自定义词典,期望分词为“[亚胺培南/kw,西司他丁/kw]”

  • 写回答

1条回答 默认 最新

  • Looooking 2019-04-18 17:08
    关注

    如果用jieba分词的话,应该可以自定义词频,提高自定义词的优先级
    jieba.add_word('亚胺培南', freq=20000)
    jieba.add_word('西司他丁', freq=20000)
    list(jieba.cut('亚胺培南西司他丁'))

    评论

报告相同问题?

悬赏问题

  • ¥15 oracle集群安装出bug
  • ¥15 关于#python#的问题:自动化测试
  • ¥20 问题请教!vue项目关于Nginx配置nonce安全策略的问题
  • ¥15 教务系统账号被盗号如何追溯设备
  • ¥20 delta降尺度方法,未来数据怎么降尺度
  • ¥15 c# 使用NPOI快速将datatable数据导入excel中指定sheet,要求快速高效
  • ¥15 再不同版本的系统上,TCP传输速度不一致
  • ¥15 高德地图点聚合中Marker的位置无法实时更新
  • ¥15 DIFY API Endpoint 问题。
  • ¥20 sub地址DHCP问题