一般的spark程序从hdfs读取数据后的初始task数是多少?对于图计算模块GraphX来说,通过GraphLoader.edgeListFile读取图文件后接下来为计算分配的task数又怎么确定?求大佬们解答。
1条回答 默认 最新
- 玄尺 2018-11-02 12:50关注
图计算没搞过。
task数量 = 逻辑计算复杂程度 * partition。hdfs的文件是按照block进行存储,当spark从hdfs读取文件之后,每一个block对应一个RDD中的partition。每一次算子对RDD进行操作,都是对partition进行操作,至于task的数量取决于你的逻辑,归结在于RDD中的compute方法,每一次调用该方法都会启动一个task处理。
spark采用的懒加载,只有触发shffle的时候才会真正的处理数据,所以spark读hdfs文件创建RDD不花费时间,之后真正处理(join才会读数据)。
提升并行度的方法:
1、保证资源到位,把executor资源加大(保证资源不是瓶颈)
2、spark.defalut.parallelism把这个参数提升到合理大小,默认500(保证并发度不是瓶颈)
3、如果以上两个方式都不能打到目的,那就repartition一下(保证partition数量不是瓶颈)https://blog.csdn.net/weixin_37893887/article/details/83473201
解决 无用评论 打赏 举报
悬赏问题
- ¥15 thinkphp6配合social login单点登录问题
- ¥15 HFSS 中的 H 场图与 MATLAB 中绘制的 B1 场 部分对应不上
- ¥15 如何在scanpy上做差异基因和通路富集?
- ¥20 关于#硬件工程#的问题,请各位专家解答!
- ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
- ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
- ¥30 截图中的mathematics程序转换成matlab
- ¥15 动力学代码报错,维度不匹配
- ¥15 Power query添加列问题
- ¥50 Kubernetes&Fission&Eleasticsearch