- 3
回答
- 3
我有一个Kafka的消费程序,在测试环境下可以正常运行,然后打包成Jar包准备部署到Linux正式环境进行使用这里发现会出现一个问题,如果使用java -jar xx.jar命令,程序可以正常运行并接
- kafka
- spring boot
- linux
- 8
- 2025-11-27 09:41
- 2
type WsChat struct{ LogTag string } func (ws *WsChat) ChatMsgKafkaRead(){ r := kafka.NewRea
- 3
回答
我在虚拟机上安装了kafka并启动,然后再maven项目里编写了测试文件,显示kafka拒绝连接
- kafka
- intellij-idea
- 12
- 2025-10-17 17:10
- 5
回答
- 5
回答
就是每次一输入这行我弄蓝色的命令 他就会弹出来警告 这个我们周一就要交了 看看这是怎么回事
- kafka
- 6
- 2025-09-20 09:49
- 4
遇到一个问题,kafka的消费者设置的批量是200, 生产者发了140条消息,但是消费者在消费批量远远没有达到200的情况下,却消费到了30条消息,而且这30条消息都是实时的,并且没有出现延时,这个是
- 5
回答
Kafka 集群节点之间通信失败 ,我的kafka集群一旦启动就随机有一个节点无法跟其他的节点进行通信。 阿里云 Centos7.9 kafka zookeeper 3.0 通过大模型的推断来解决问
- 6
kafka“封装systemctl管理失败” 阿里云-Linux-Centos7.9 通过“通义千问”的推断来排错,但却始终无法找到错误的关键点 我最终想要的是可以通过systemctl来管理的ka
- 6
回答
使用debezium连接mysql innodb cluster数据库集群和kafka时候出现了问题连接使用的是kafka connectkafka集群是控制器节点和broker节点分离的方式部署的b
- 6
回答
使用debezium连接mysql innodb cluster数据库集群和kafka时候出现了问题连接使用的是kafka connectkafka集群是控制器节点和broker节点分离的方式部署的b
- 4
回答
服务且接收kafka消息,业务处理后,sql语句修改失败,服务器一直刷新: BEGIN check for expired resources. FINISHED check for expired
- 4
回答
- 3
回答
flink的并行度设置为4,kafka分区设置为10,运行2天之后报错如下,请问怎么处理。flink版本是1.12,kafka版本是3.6 java.io.IOException: Could not
- 3
回答
本人尝试用pyspark 连接服务器kafka,尝尽了各种办法,看了所有的aI方法,都是调试不成功,希望会的朋友看看以下代码与报错信息,给予指导,有偿! ``from pyflink.table im
- 3
回答
oracle通过kafka向doris同步数据,json中标记为D的数据没有被删除是什么原因
- kafka
- 7
- 2025-04-28 14:48
- 3
回答
我用spring boot写了两个kafka消费组,采用kafka Listner可以发现消息通道是没有问题的,但是我这边springboot消费消息比较不稳定,接收不到的概率比较大,另外感觉采用de
- 4
回答
SpringCloudStreamKfka 3.2.7如何指定消费者的 groupid? stream: kafka: binder: brok
- kafka
- spring cloud
- java
- 7
- 2025-03-27 11:19
- 2
回答
- 3
回答
- 5
回答
flink 1.19 hive3.1.3版本,从mysql cdc 用kafka向hive同步数据报错,sql没有更新删除操作,并且选了upsert kafka,从插入开始报错。
- 4
kafka创建两个生产者和两个消费者,实现用户分权,centos7,怎么搞啊?已经安装好java和kafka了
- 4
介绍消息队列的核心原理和实现,以及常见问题及其解决方案等。本文不会过多的扩展详细的消息队列系统,如RocketMQ、RabbitMQ、Kafka等,这些会在后续详细介绍。
- 2
回答
在spring-kafka中,我们可以使用ErrorHandler来处理错误。通常是重试规定次数后,如果任然报错那么发送到死信队列。现在我希望手动提交offset,手动提交的基本逻辑应该是:如果不报错
- 4
回答
- 2
回答
你好,大神我想问一下,我的dezezium报错org.apache.kafka.common.errors.RecordTooLargeException: The message is 106848
- 3
回答
- 1
回答
- 1
回答
使用pycharm用pyspark怎么连接kafka文心一言生成的代码 from pyspark.sql import SparkSession # 导入 SparkSession 模块from p
- 1
回答
提问,kafka的mirrormaker2是不支持主题的副本数同步吗?mm2的配置文件里面只看到有 远端创建新topic的replication数量设置 replication.factor=3这个配