暗夜金星 2019-12-03 13:42 采纳率: 0%
浏览 533
已结题

814G的json文件怎么分批导入mongodb中

1.想把814G的json文件导入mongoDB中,抽取想要数据的三元组。(814G的json文件来自与wikidata中的数据)
2.或者怎么用json数据解析法抽取其中的三元组。
(问题难点都是数据太大内存不够,需要分批处理,怎么分批814Gjson文件)

  • 写回答

3条回答 默认 最新

  • 神隐的小蝴蝶 2019-12-03 15:23
    关注

    给出你的JSON示例看看? wikidata的查询好像用的是SPARQL吧?

    一般情况数据量过大的时候,根据你的数据格式和计算类型一般可以有两种方法 1. 搭建类似hadoop集群来做分布式处理。 2. 先对任务进行拆分, 比如类似流式计算的一次处理一条数据

    评论

报告相同问题?

悬赏问题

  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题
  • ¥15 (标签-Python|关键词-socket)
  • ¥15 keil里为什么main.c定义的函数在it.c调用不了
  • ¥50 切换TabTip键盘的输入法
  • ¥15 可否在不同线程中调用封装数据库操作的类
  • ¥15 微带串馈天线阵列每个阵元宽度计算
  • ¥15 keil的map文件中Image component sizes各项意思
  • ¥20 求个正点原子stm32f407开发版的贪吃蛇游戏