关于flink接收kafka消息的代码能不能用python写
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

已结题
关于flink接收kafka消息的代码能不能用python写
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
CSDN专家-微编程 2021-08-16 16:01关注应该可以,不过通常使用scala语言进行编写
本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报微信扫一扫
点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2022-01-28 09:47回答 1 已采纳 那最后写入到库了吗,如果写不进去,上游kafka肯定会延迟越来越大的,可以在sink里多打印下错误,或者设置写入超时时间,问题应该在写入
- 2021-08-18 11:07回答 2 已采纳 你的包是不是导错了。删除你导入的包,把下面的包复制放你程序中。 import org.apache.flink.api.common.typeinfo.TypeInformation; import
- 2021-07-02 11:07回答 2 已采纳 对kafka来说,只要这条数据发出去了,就算消费了,你消费者怎么处理,和kafka无关了。对消费者来说, 你只需要消费下一条就行了。至于偏移量, 你第一次消费的时候,是要发送偏移的,这个你消费者要本地
- 2025-01-24 09:542401_89317296的博客 kafka1:producer:如果您想了解更多docker环境下kafka消息生产者的细节,请参考;
- 2022-07-13 20:33回答 3 已采纳 restclient异常,先看看taskmanager和jobmanager是否正常,然后你可以在jobmanager的节点上访问webUI查看job状态,又或者直接查看宿主机上的日志排查问题
- 2022-08-26 11:43回答 1 已采纳 不是大小写问题,你的json里面是大写,代码里面是小写,改一下试试
- 2019-10-30 14:39回答 1 已采纳 **DEMO** ``` def main(args: Array[String]): Unit = { val env = StreamExecutionEnviron
- 2024-10-26 22:00卫龙~的博客 首先有安装好的 kafka 环境,
- 2023-03-07 15:49回答 4 已采纳 Flink 在启动任务的时候,创建输入分片时发生了错误,导致无法启动任务。你需要检查一下程序中读取文件的代码是否正确,文件路径是否正确,文件是否存在,并且当前用户是否有访问该文件的权限。如果需要,可以
- 2021-07-13 21:54回答 1 已采纳 看你用的哪个版本,如果1.11.2以上,flink sql还可以
- 2021-09-02 17:59回答 2 已采纳 直接写消费者,行,也是实时计算。区别是spark这种功能比较多,比如多态机器分布部署,容错机制,故障恢复等。所以对于大型系统用spark这种更方便。如果系统的要求没那么高,那肯定是自己写比较方便了。
- 2020-12-19 05:02weixin_39969060的博客 代码:import java.util.Propertiesimport org.apache.flink.api.common.serialization.SimpleStringSchemaimport org.apache.flink.streaming.api.scala.StreamExecutionEnvironmentimport org.apache.flink....
- 2020-12-29 07:31嘿bro的博客 How Apache Flink manages Kafka consumer offsetsStep 1:例子:一个kafka topic,有两个partition,每个含有"A,B,C,D,E"信息。offset从0开始。Step 1Step 2:第二步,kafka consumer开始从partition 0开始读取信息...
- 2020-12-19 05:02weixin_39802055的博客 flink消费kafka数据,并不是完全通过跟踪kafka消费组的offset来实现去保证exactly-once的语义,而是flink内部去跟踪offset和做checkpoint去实现exactly-once的语义flink与kafka整合,相应版本对于的maven依赖如下表...
- 2020-12-29 07:30麒麟瑜的博客 在流式处理系统中,Flink和kafka的结合很是经典。我们可以通过Flink消费Kafka数据,层层处理后,丢到Kafka另一个Topic,下游再处理该Topic的数据。而对于OLAP查询需求,我们往往需要将数据输出到 Hive。一般的,我们...
- 没有解决我的问题, 去提问