有一个案例:后端两台logstash去消费obs桶中数据 (以前是单台,但是发现每次一台logstash都消费不完桶里面的数据,所以想着后端配置两台提高处理数据的能力,)。logstash input配置s3插件的时候。delete => true,和interval => 60,发现后端两台logstash消费桶里数据会有重复,不是已经配置了delete了吗,消费了就删除了桶中的数据了。为啥还会有重复,不理解,困扰我很久了。
1条回答 默认 最新
- 三千烦恼丝xzh 2022-08-11 10:50关注
如果你使用资源没有锁定机制,这样两个logstash可能同时在处理一个文件自然可能重复,可以把数据存储到多个桶隔离开来消费
解决 无用评论 打赏 举报