flume监听kafka文件时,总会在kafka的logs文件夹里面生成一个 flumepool的一个文件,但由于kafka的logs除了日志文件不允许其他文件在内,所以就总是导致kafka异常退出,就导致我得用点邪招去保持两边运行,就是先把logs文件夹删了,但是flume不关闭,然后在创建一个logs文件夹再启动kafka两边才能平稳运行,我想问一下有什么办法不生成flumepool文件,或者让这个文件换个地方生成吗?
下边是报错信息,小生不才,麻烦各位神仙给小生想个办法.
flume监听kafka日志文件,kafka无法正常运行
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
1条回答 默认 最新
- 白&夜 2023-07-10 12:00关注
能不能使用额外的脚本或工具:比如编写脚本或使用其他工具来监视 Kafka 日志目录,然后将文件复制到其他地方进行处理,而不是使用 Flume 的 Spooling Directory Source 来监听 Kafka。毕竟Flume 的默认行为是在 Spooling Directory Source 中生成临时文件。如果绕过此行为,可能需要更多的定制化和配置修改才能实现预期的结果。
本回答被题主选为最佳回答 , 对您是否有帮助呢?解决 1无用
悬赏问题
- ¥15 CCF-CSP 2023 第三题 解压缩(50%)
- ¥30 comfyui openpose报错
- ¥20 Wpf Datarid单元格闪烁效果的实现
- ¥15 图像分割、图像边缘提取
- ¥15 sqlserver执行存储过程报错
- ¥100 nuxt、uniapp、ruoyi-vue 相关发布问题
- ¥15 浮窗和全屏应用同时存在,全屏应用输入法无法弹出
- ¥100 matlab2009 32位一直初始化
- ¥15 Expected type 'str | PathLike[str]…… bytes' instead
- ¥15 三极管电路求解,已知电阻电压和三级关放大倍数