mapreduce按块读取数据(默认128M),如果文件很大,那么就会起很多个maptask。每个maptask读取数据后会写入到各自的环形缓冲区(默认100M)。假设有1000个maptask,那么是不是就得需要 1000*100M内存?
3条回答 默认 最新
- 暴躁码农 2020-12-28 15:05关注
我没用过Hadoop,但我还是想叭叭。
我觉得不是啊,如果按块读取大文件确实会启很多歌maptask,每个maptask确实可能超出各自的环形缓冲区造成oom,但还可以溢写呀。先写磁盘里,然后再合并。
瞎叭叭一句,不对再说。
解决 无用评论 打赏 举报
悬赏问题
- ¥30 arduino vector defined in discarded section `.text' of wiring.c.o (symbol from plugin)
- ¥20 关于#c++#的问题:(2)运算二叉树·表达式一般由一个运算符和两个操作数组成:(相关搜索:二叉树遍历)
- ¥20 如何训练大模型在复杂因素组成的系统中求得最优解
- ¥15 关于#r语言#的问题:在进行倾向性评分匹配时,使用“match it"包提示”错误于eval(family$initialize): y值必需满足0 <= y <= 1“请问在进行PSM时
- ¥45 求17位带符号原码乘法器verilog代码
- ¥20 PySide6扩展QLable实现Word一样的图片裁剪框
- ¥15 matlab数据降噪处理,提高数据的可信度,确保峰值信号的不损失?
- ¥15 怎么看我在bios每次修改的日志
- ¥15 python+mysql图书管理系统
- ¥15 Questasim Error: (vcom-13)