hadoop的MapReduce的过程中,与spark纯内存计算不同,在不同的阶段中间数据是存储在哪里,内存还是本地磁盘还是hdfs?
收起
map输出结果会先写到缓存中,缓存写满后会产生溢写,把中间结果归并写到本地磁盘中。
报告相同问题?