在sparkstreaming中,使用kafka的directstream接口获取数据时,不会将offset更新到zookeeper,这样会导致job重启后只能从最新的offset读取,从而造成数据丢失,为了避免这个情况,官网提示说可以自己实现将offset手动更新到zookeeper,我使用的是python,但是spark的python接口中并无java和scala中的kafkacluster这个类,不知道自己手动该如何实现,网上有很多scala和java实现这个操作的代码,求高手给一个python版本的,在线等,跪求!!!!小弟编程能力有限,跪求高手耐心解答,抱拳。
悬赏问题
- ¥88 实在没有想法,需要个思路
- ¥15 python中合并修改日期相同的CSV文件并按照修改日期的名字命名文件
- ¥15 有赏,i卡绘世画不出
- ¥15 如何用stata画出文献中常见的安慰剂检验图
- ¥15 c语言链表结构体数据插入
- ¥40 使用MATLAB解答线性代数问题
- ¥15 COCOS的问题COCOS的问题
- ¥15 FPGA-SRIO初始化失败
- ¥15 MapReduce实现倒排索引失败
- ¥15 ZABBIX6.0L连接数据库报错,如何解决?(操作系统-centos)