• 全部
  • 关注
  • 有问必答
  • 等你来答

排行榜

  • 用户榜
  • 标签榜
  • 冲榜分奖金

频道

  • 编程语言
  • 后端
  • Python
  • Java
  • 前端
最新最热精华悬赏待回答 筛选
  • 1

    回答

问题遇到的现象和发生背景 mechanism: SCRAM-SHA-256 没有认证的没有问题 加认证后写入不进去 怎么修改lua 脚本才能写入有sasl 的kafka 用的 https://gi

  • 0

    回答

openresty 通过lua 脚本写入 kafka但是 kafka 有 SCRAM-SHA-256 认证怎么才能正确的认证过去

  • 1

    回答

kafka 启动无反应,查询日志无日志文件,也查不到kafka服务 帮忙看看

  • kafka
  • 16
  • 2022-01-17 11:07
积水潭坛主
采纳率0%
  • 1

    回答

spark streaming 消费kafka kafka加密 要输入用户名和密码 这个怎么写 各位亲

  • 1

    回答

kafka里面当前消息2942497,invalid是false项目中报错 并且会一直循环输出这个错误之前有用过配置kafka跳过此消息,但是每次都要手动去修改,有没有办法在报错后,跳过此消息

回答 qq_40293993
采纳率75%
  • 3

学习SpringBoot集成kafka的时候发现kafka配置在yml中,生产者类跟消费者类都是读取的配置的ip地址那么一台机器又可当消费者又可当生产者咯?

涵叔叔
采纳率93.3%
  • 1

    回答

@EnableScheduling@Componentpublic class CronTimer { @Autowired private KafkaListenerEndpointRe

回答 chunhev5
采纳率0%
  • 1

    回答

kafka运行一段时间后清理kafka和zookeeper日志数据,重新启动应用。向kafka推数据消费端就会报错Fetch offset 536892785 is out of range for

cc_wzp
采纳率0%
  • 1

    回答

问题遇到的现象和发生背景 springboot使用@KafkaListener接收消息报错,以下报错信息循环输出导致服务器日志打满 问题相关代码,请勿粘贴截图 消息接收: @KafkaListene

这个人叫魔方
采纳率0%
  • 2

    回答

问题:使用kettle 9.1自带的Kafka consumer消费Kafka数据 ,在转换中我只有一个连接器,而在工作之后我要进行一个转换,并从流步骤中获取记录.问题在于,使用kafka消费者的第一

weixin_43987812
采纳率0%
  • 0

    回答

实时清洗使用spark submit提交任务的时候,根据接受的kafka数据量自动分配资源和task任务并且不影响集群上其他job执行

  • 1

    回答

想了解一下kafka集群部署在k8s和主机有什么区别,两种方案的优势和问题点,生产环境上大多数是在主机上部署的,在k8s上部署有什么问题吗,麻烦各位帮忙解答

回答 不负自心
采纳率75%
  • 1

在做毕业设计过程中,在大同kafka-flume-hdfs通道时,hdfs无法接收到flume采集的数据,查看flume启动日志文件发现报错: No configuration directory s

河丶神
采纳率25%
  • 1

    回答

问题遇到的现象和发生背景 sparkStream相关代码缺少依赖包,不知是否方便提供 问题相关代码,请勿粘贴截图 运行结果及报错内容 我的解答思路和尝试过的方法 我想要达到的结果 目前按照之前几

  • 1

场景是,采用mqtt协议,把设备发送的消息,转发到了kafka,再由消费者入库。如果一下很多消息要消费者入库,那如何保证入库这个逻辑的高性能

qq_40293993
采纳率75%
  • 1

    回答

创建flink环境接收kafka消息,然后创建StreamTableEnvirment把处理后的数据插入hive,这样的花会启动两个flink job 求解。

  • 1

    回答

问题遇到的现象和发生背景 @Configuration //@EnableConfigurationProperties({KafkaProperties.class}) @EnableKafka

回答 cncxz5801
采纳率20%
  • 1

    回答

要怎么实现根据数据集每一条数据的时间戳向flume实时发送数据,可以用Avro吗?我想要用数据集来做淘宝用户行为实时分析。

wei_haofeng
采纳率0%
  • 2

    回答

nohup bin/kafka-server-start.sh config/server.properties &[1] 19344 nohup: 忽略输入并把输出追加到"nohup.out"noh

  • 1

    回答

问题遇到的现象和发生背景 我的解答思路和尝试过的方法 https://blog.csdn.net/donger__chen/article/details/98199498 为多个名字

JIA绅士-
采纳率0%
  • 0

    回答

  • 1

    回答

如何查看kafka中offset的有效期,配置文件里面没有offsets.retention.minutes,是不是因为原生的kafka里面没有这个配置,需要自己添加?如果不添加,默认是24小时吗?下

Mr_jiangwy
采纳率0%
  • 1

    回答

其他两台机器可以正常启动但是主虚拟机无法启动环境变量没有问题是因为zookeeper和kafka版本不对嘛?

回答 嗯୧⍤⃝
采纳率20%
  • 1

    回答

救命啊!从kafka接入数据,报错batch 4 doesn't exist是什么原因啊?救命啊有同学遇到过标题中的问题吗

xixixxxi
采纳率0%
  • 1

    回答

springcloud stream kafka 3.1.x 函数式消费者多个无法注册到kafka,只有一个情况下是可以绑定到kafka的 pom kafka配置 消费者bean

li_Li2
采纳率0%
  • 1

目前是确定要用 PLAIN 那种模式,连SSL都不用。然后网上我一直找不到具体要set的字段有哪些……麻烦各位帮忙看看,多谢了 这个里面ssl相关的键是不是可以删掉了。还需要新增哪些键呢……

predawnlove
采纳率100%
  • 2

    回答

Kafka因为网络延时或者中断时,将该条信息打印到日志中,就想知道该条日志打印的代码是加在哪里,dowork方法中嘛,kafkaConsumer.poll(timeOut),这条应该是去拉数据的请求吧

SYD19970128
采纳率0%
  • 1

    回答

CSDN上找了几个文章案例都不会用,要么太老版本对不上,要么是纯用工具手动导入找到一个github的项目kafka-connect-elasticsearch,https://github.com/c

梦想仗剑走天涯
采纳率0%
  • 1

    回答

要做设备监控,大概一秒钟5000个包,通过udp来传输。想法是收到的数据后,推到kafka,然后java的后台程序再慢慢消费。采集这块用什么开源程序来做比较好?flume ?这个效率是不是比较低?

tangtech
采纳率0%