gebilaozeng 2020-09-07 18:46 采纳率: 0%
浏览 131

Spark Streaming 通过Direct方式消费Kafka并手动维护Offset到Mysql,极限情况下如果提交offset的时候故障了该怎么办?

Spark Streaming 处理数据以后要提交offset的时候出现故障造成offset提交失败,不做处理的话可能会导致数据重复,
这种极限情况下该怎么保证Spark Streaming 实现精准一次性消费Kafka的数据呢?

  • 写回答

1条回答 默认 最新

  • 关注
    评论

报告相同问题?

悬赏问题

  • ¥30 STM32 INMP441无法读取数据
  • ¥100 求汇川机器人IRCB300控制器和示教器同版本升级固件文件升级包
  • ¥15 用visualstudio2022创建vue项目后无法启动
  • ¥15 x趋于0时tanx-sinx极限可以拆开算吗
  • ¥500 把面具戴到人脸上,请大家贡献智慧
  • ¥15 任意一个散点图自己下载其js脚本文件并做成独立的案例页面,不要作在线的,要离线状态。
  • ¥15 各位 帮我看看如何写代码,打出来的图形要和如下图呈现的一样,急
  • ¥30 c#打开word开启修订并实时显示批注
  • ¥15 如何解决ldsc的这条报错/index error
  • ¥15 VS2022+WDK驱动开发环境