实时清洗使用spark submit提交任务的时候,根据接受的kafka数据量自动分配资源和task任务并且不影响集群上其他job执行
1条回答 默认 最新
- 未来在这儿 2023-01-24 16:00关注
望采纳!!!
1、还是需要考虑如果kafka存在rebalance的情况下,你要如何处理的问题。
2、kafka如果已经到位,可以通过消费的offset和最新的offset进行对比。如果实时进来的话,只能通过类似流量监控的包进行处理了。
3、还可以通过调整spark的executor和memory进行任务的启停。解决 无用评论 打赏 举报
悬赏问题
- ¥15 深度学习根据CNN网络模型,搭建BP模型并训练MNIST数据集
- ¥15 lammps拉伸应力应变曲线分析
- ¥15 C++ 头文件/宏冲突问题解决
- ¥15 用comsol模拟大气湍流通过底部加热(温度不同)的腔体
- ¥50 安卓adb backup备份子用户应用数据失败
- ¥20 有人能用聚类分析帮我分析一下文本内容嘛
- ¥15 请问Lammps做复合材料拉伸模拟,应力应变曲线问题
- ¥30 python代码,帮调试,帮帮忙吧
- ¥15 #MATLAB仿真#车辆换道路径规划
- ¥15 java 操作 elasticsearch 8.1 实现 索引的重建