qq_40004754 2017-08-31 02:12 采纳率: 0%
浏览 788

请教:mysql有没有能把一篇几百万字的文章分成200W条数据的方法

或者有没有哪款软件能分又能插入mysql的,谢谢各位大佬了!

  • 写回答

4条回答

  • fcfwang_net 2017-08-31 02:19
    关注

    可以使用elasticsearch ,然后将分词之后的数据存回去。只是一个想法,你可以试一下

    评论

报告相同问题?

悬赏问题

  • ¥15 微信公众号自制会员卡没有收款渠道啊
  • ¥15 stable diffusion
  • ¥100 Jenkins自动化部署—悬赏100元
  • ¥15 关于#python#的问题:求帮写python代码
  • ¥20 MATLAB画图图形出现上下震荡的线条
  • ¥15 关于#windows#的问题:怎么用WIN 11系统的电脑 克隆WIN NT3.51-4.0系统的硬盘
  • ¥15 perl MISA分析p3_in脚本出错
  • ¥15 k8s部署jupyterlab,jupyterlab保存不了文件
  • ¥15 ubuntu虚拟机打包apk错误
  • ¥199 rust编程架构设计的方案 有偿