Spark Streaming 处理数据以后要提交offset的时候出现故障造成offset提交失败,不做处理的话可能会导致数据重复,
这种极限情况下该怎么保证Spark Streaming 实现精准一次性消费Kafka的数据呢?
Spark Streaming 通过Direct方式消费Kafka并手动维护Offset到Mysql,极限情况下如果提交offset的时候故障了该怎么办?
- 写回答
- 好问题 0 提建议
- 关注问题
- 邀请回答
-
Spark Streaming 处理数据以后要提交offset的时候出现故障造成offset提交失败,不做处理的话可能会导致数据重复,
这种极限情况下该怎么保证Spark Streaming 实现精准一次性消费Kafka的数据呢?