qq_23677453 2018-11-02 09:03 采纳率: 0%
浏览 1521

spark一般任务的初始并行度怎么确定?

一般的spark程序从hdfs读取数据后的初始task数是多少?对于图计算模块GraphX来说,通过GraphLoader.edgeListFile读取图文件后接下来为计算分配的task数又怎么确定?求大佬们解答。

  • 写回答

1条回答

  • 玄尺 2018-11-02 12:50
    关注

    图计算没搞过。
    task数量 = 逻辑计算复杂程度 * partition。hdfs的文件是按照block进行存储,当spark从hdfs读取文件之后,每一个block对应一个RDD中的partition。每一次算子对RDD进行操作,都是对partition进行操作,至于task的数量取决于你的逻辑,归结在于RDD中的compute方法,每一次调用该方法都会启动一个task处理。
    spark采用的懒加载,只有触发shffle的时候才会真正的处理数据,所以spark读hdfs文件创建RDD不花费时间,之后真正处理(join才会读数据)。
    提升并行度的方法:
    1、保证资源到位,把executor资源加大(保证资源不是瓶颈)
    2、spark.defalut.parallelism把这个参数提升到合理大小,默认500(保证并发度不是瓶颈)
    3、如果以上两个方式都不能打到目的,那就repartition一下(保证partition数量不是瓶颈)

    https://blog.csdn.net/weixin_37893887/article/details/83473201

    评论

报告相同问题?

悬赏问题

  • ¥15 无线电能传输系统MATLAB仿真问题
  • ¥50 如何用脚本实现输入法的热键设置
  • ¥20 我想使用一些网络协议或者部分协议也行,主要想实现类似于traceroute的一定步长内的路由拓扑功能
  • ¥30 深度学习,前后端连接
  • ¥15 孟德尔随机化结果不一致
  • ¥15 apm2.8飞控罗盘bad health,加速度计校准失败
  • ¥15 求解O-S方程的特征值问题给出边界层布拉休斯平行流的中性曲线
  • ¥15 谁有desed数据集呀
  • ¥20 手写数字识别运行c仿真时,程序报错错误代码sim211-100
  • ¥15 关于#hadoop#的问题