Me丶kang 2020-06-01 11:33 采纳率: 0%
浏览 671

spark读取parquet的分区数量问题,blockSize?分割?

是这样的,hdfs某个parquet目录下共有64个part。采用gz压缩。

然后我用spark.read.parquet去读取。发现有1900+的partition。也就是1900+的task任务启动。
看起来还是读取的parquet.block.size参数。然后一个part下有很多个block。

但是gz压缩不是不可分割么?不应该是64个paritition吗?

块和分割的概念到底是什么呢?

  • 写回答

1条回答 默认 最新

  • zqbnqsdsmd 2020-09-10 14:48
    关注
    评论

报告相同问题?