在sparkstreaming中,使用kafka的directstream接口获取数据时,不会将offset更新到zookeeper,这样会导致job重启后只能从最新的offset读取,从而造成数据丢失,为了避免这个情况,官网提示说可以自己实现将offset手动更新到zookeeper,我使用的是python,但是spark的python接口中并无java和scala中的kafkacluster这个类,不知道自己手动该如何实现,网上有很多scala和java实现这个操作的代码,求高手给一个python版本的,在线等,跪求!!!!小弟编程能力有限,跪求高手耐心解答,抱拳。
悬赏问题
- ¥15 HFSS 中的 H 场图与 MATLAB 中绘制的 B1 场 部分对应不上
- ¥15 如何在scanpy上做差异基因和通路富集?
- ¥20 关于#硬件工程#的问题,请各位专家解答!
- ¥15 关于#matlab#的问题:期望的系统闭环传递函数为G(s)=wn^2/s^2+2¢wn+wn^2阻尼系数¢=0.707,使系统具有较小的超调量
- ¥15 FLUENT如何实现在堆积颗粒的上表面加载高斯热源
- ¥30 截图中的mathematics程序转换成matlab
- ¥15 动力学代码报错,维度不匹配
- ¥15 Power query添加列问题
- ¥50 Kubernetes&Fission&Eleasticsearch
- ¥15 報錯:Person is not mapped,如何解決?