weixin_44001731 2022-08-11 10:42 采纳率: 0%
浏览 11

logstash s3问题

有一个案例:后端两台logstash去消费obs桶中数据 (以前是单台,但是发现每次一台logstash都消费不完桶里面的数据,所以想着后端配置两台提高处理数据的能力,)。logstash input配置s3插件的时候。delete => true,和interval => 60,发现后端两台logstash消费桶里数据会有重复,不是已经配置了delete了吗,消费了就删除了桶中的数据了。为啥还会有重复,不理解,困扰我很久了。

  • 写回答

1条回答 默认 最新

  • 三千烦恼丝xzh 2022-08-11 10:50
    关注

    如果你使用资源没有锁定机制,这样两个logstash可能同时在处理一个文件自然可能重复,可以把数据存储到多个桶隔离开来消费

    评论

报告相同问题?

问题事件

  • 创建了问题 8月11日

悬赏问题

  • ¥15 DIFY API Endpoint 问题。
  • ¥20 sub地址DHCP问题
  • ¥15 delta降尺度计算的一些细节,有偿
  • ¥15 Arduino红外遥控代码有问题
  • ¥15 数值计算离散正交多项式
  • ¥30 数值计算均差系数编程
  • ¥15 redis-full-check比较 两个集群的数据出错
  • ¥15 Matlab编程问题
  • ¥15 训练的多模态特征融合模型准确度很低怎么办
  • ¥15 kylin启动报错log4j类冲突