qq_40004754 2017-08-31 02:12 采纳率: 0%
浏览 787

请教:mysql有没有能把一篇几百万字的文章分成200W条数据的方法

或者有没有哪款软件能分又能插入mysql的,谢谢各位大佬了!

  • 写回答

4条回答 默认 最新

  • fcfwang_net 2017-08-31 02:19
    关注

    可以使用elasticsearch ,然后将分词之后的数据存回去。只是一个想法,你可以试一下

    评论

报告相同问题?

悬赏问题

  • ¥15 求差集那个函数有问题,有无佬可以解决
  • ¥15 【提问】基于Invest的水源涵养
  • ¥20 微信网友居然可以通过vx号找到我绑的手机号
  • ¥15 寻一个支付宝扫码远程授权登录的软件助手app
  • ¥15 解riccati方程组
  • ¥15 display:none;样式在嵌套结构中的已设置了display样式的元素上不起作用?
  • ¥15 使用rabbitMQ 消息队列作为url源进行多线程爬取时,总有几个url没有处理的问题。
  • ¥15 Ubuntu在安装序列比对软件STAR时出现报错如何解决
  • ¥50 树莓派安卓APK系统签名
  • ¥65 汇编语言除法溢出问题