qq_43248458 2018-09-20 08:06 采纳率: 0%
浏览 1930

Python 用jieba分词,没任何作用。求答!!

原本打算用爬到的评论数据,做个词云,在用jieba分词时,发现jieba分词完全没起到作用。
然后自己再写了个简单代码来做测试,但是发现还是没起到作用,代码如下图:
图片说明

本人是Python新手,没金币,希望各位大佬能解答下,万分感谢!!!

  • 写回答

1条回答 默认 最新

  • oyljerry 2018-09-20 08:19
    关注

    你自己用join又把所有的分词连接起来了,cut返回的生成器中就有所有的词

     In [4]: res = jieba.cut(text, cut_all=False)
    
    In [5]: res
    Out[5]: <generator object Tokenizer.cut at 0x0000003FB9F9E888>
    
    In [6]: for x in res:
       ...:     print(x)
       ...:
    Building prefix dict from the default dictionary ...
    Dumping model to file cache C:\Users\jerry_ou\AppData\Local\Temp\jieba.cache
    Loading model cost 0.867 seconds.
    Prefix dict has been built succesfully.
    今天
    我
    去
    超市
    买
    了
    很多
    东西
    ,
    包括
    西瓜
    ,
    猪肉
    还有
    油麦
    菜
    
    评论

报告相同问题?

悬赏问题

  • ¥15 素材场景中光线烘焙后灯光失效
  • ¥15 请教一下各位,为什么我这个没有实现模拟点击
  • ¥15 执行 virtuoso 命令后,界面没有,cadence 启动不起来
  • ¥50 comfyui下连接animatediff节点生成视频质量非常差的原因
  • ¥20 有关区间dp的问题求解
  • ¥15 多电路系统共用电源的串扰问题
  • ¥15 slam rangenet++配置
  • ¥15 有没有研究水声通信方面的帮我改俩matlab代码
  • ¥15 ubuntu子系统密码忘记
  • ¥15 保护模式-系统加载-段寄存器