big_bow 2018-03-12 09:19 采纳率: 66.7%
浏览 1874
已结题

如何过滤 spark 链接 mongodb 时 加载数据量

目前使用 的是mongodb官方提供的一个链接spark的jar包,代码如下
SparkConf conf = new SparkConf().set(...)//设置初始化属性
JavaSparkContext jsc = new JavaSparkContext(conf);
//下面这步加载数据
Dataset explicitDF = MongoSpark.load(jsc).toDF();
由于是这样直接加载的,根本 没地方在加载之前写过滤条件来控制加载的数据量的,所以导致直接加载了整表的数据,十分缓慢,各位有 什么方法或者建议提供参考下么,谢谢啦

  • 写回答

2条回答

  • qq_1763173213 2018-03-12 14:58
    关注

    val spark = SparkSession.builder

    .appName(this.getClass.getName().stripSuffix("$"))

    .getOrCreate()

    val inputUri="mongodb://test:pwd123456@192.168.0.1:27017/test.articles"

    val df = spark.read.format("com.mongodb.spark.sql").options(

    Map("spark.mongodb.input.uri" -> inputUri,

    "spark.mongodb.input.partitioner" -> "MongoPaginateBySizePartitioner",

    "spark.mongodb.input.partitionerOptions.partitionKey" -> "_id",

    "spark.mongodb.input.partitionerOptions.partitionSizeMB"-> "32"))

    .load()

    val currentTimestamp = System.currentTimeMillis()

    val originDf = df.filter(df("updateTime") < currentTimestamp && df("updateTime") >= currentTimestamp - 1440 * 60 * 1000)

    .select("_id", "content", "imgTotalCount").toDF("id", "content", "imgnum")

    评论

报告相同问题?

悬赏问题

  • ¥15 python的qt5界面
  • ¥15 无线电能传输系统MATLAB仿真问题
  • ¥50 如何用脚本实现输入法的热键设置
  • ¥20 我想使用一些网络协议或者部分协议也行,主要想实现类似于traceroute的一定步长内的路由拓扑功能
  • ¥30 深度学习,前后端连接
  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100