有个困扰已久的问题,有一张hive大表,15G,集群可用剩余内存18G;
现在的想法是,想把表一行一行的读进来,然后处理,类似于mapreduce ,因为spark快点
就不考虑用MR了,但是df.foreach()这个方法是默认把整张表读进内存的,立马oom,
请问有没有大神指定怎么能,一行一行的读,然后处理。。。。。。。。。。。
spark的DataFrame forEach导致的OOM问题
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
悬赏问题
- ¥15 java 操作 elasticsearch 8.1 实现 索引的重建
- ¥15 数据可视化Python
- ¥15 要给毕业设计添加扫码登录的功能!!有偿
- ¥15 kafka 分区副本增加会导致消息丢失或者不可用吗?
- ¥15 微信公众号自制会员卡没有收款渠道啊
- ¥15 stable diffusion
- ¥100 Jenkins自动化部署—悬赏100元
- ¥15 关于#python#的问题:求帮写python代码
- ¥20 MATLAB画图图形出现上下震荡的线条
- ¥15 关于#windows#的问题:怎么用WIN 11系统的电脑 克隆WIN NT3.51-4.0系统的硬盘