2 z960339491 z960339491 于 2016.09.18 11:21 提问

救命!!!!!nginx+lua+kafka 做日志收集出现发送消息问题,could not be resolved

我用的阿里云服务器,我在服务器上面安装了一个kafka

为啥不能发送的,百度了好多 说啥DNS不对 求大神查明啊

kafka配置文件:

kafka

nginx日志:

nginx日志

lua文件:
lua写进kafka

2个回答

z960339491
z960339491   2016.09.18 16:16
已采纳

解决了

图片说明
使用下面这个地址 我写的是内网IP地址 就可以正常使用了

z960339491
z960339491   2016.09.18 11:29

2016/09/18 11:11:46 [error] 5720#0: [lua] producer.lua:258: buffered messages send to kafka err: iz9405kumw9z could not be resolved (3: Host not found), retryable: true, topic: lualog, partition_id: 0, length: 1, context: ngx.timer, clie
nt: 183.12.65.116, server: 0.0.0.0:80

Csdn user default icon
上传中...
上传图片
插入图片
准确详细的回答,更有利于被提问者采纳,从而获得C币。复制、灌水、广告等回答会被删除,是时候展现真正的技术了!
其他相关推荐
kafka发送消息问题,could not be resolved
问题我用的阿里云服务器,我在服务器上面安装了一个kafka 为啥不能发送的,百度了好多 说啥DNS不对 求大神查明啊 kafka配置文件(config/server.properties):  nginx日志: 2016/09/18 11:11:46 [error] 5720#0: [lua] producer.lua:258: buffered messages send to kafka
nginx+lua+kafka实现日志统一收集汇总
[转载]原文出处:http://hot66hot.iteye.com/blog/2291916一:场景描述对于线上大流量服务或者需要上报日志的nginx服务,每天会产生大量的日志,这些日志非常有价值。可用于计数上报、用户行为分析、接口质量、性能监控等需求。但传统nginx记录日志的方式数据会散落在各自nginx上,而且大流量日志本身对磁盘也是一种冲击。 我们需要把这部分nginx日志统一收集汇总起
nginx could not be resolved (3: Host not found)错误解决方案
在nginx的配置中将proxy_pass引用了变量,在Nginx0.6.18以后的版本都会有这样的错误,如果proxy_pass直接写地扯是没有问题的错误配置如下server { listen 80; server_name ~^(?<subdomain>.+)\.xxxx\.com$; location / { client_max_body_size 20m;
基于Nginx1.9+LuaJIT+Kafka的点播监控系统实战(上海卓越智慧树网点播监控系统)
最近在做点监控系统,先后采用了两套方案: 方案一:Nginx记录日志 --> tail语句扫描日志到Kafka --> Java站点消费Kafka消息后存储到Mysql数据库 --> Mysql数据库 --> 数据库定时汇聚数据 --> 界面呈现 方案一遇到的问题: 1.1 面对海量数据,日志文件增长很快,磁盘占用大 1.2 Java站点消费Kafka消息后存储到Mysql数据库 太慢
Lua+Nginx+Kafka
Lua Nginx nginx.conf 配置文件详解 kafka 推送数据
nginx-lua+kafka进行数据采集
一:场景描述 对于线上大流量服务或者需要上报日志的nginx服务,每天会产生大量的日志,这些日志非常有价值。可用于计数上报、用户行为分析、接口质量、性能监控等需求。但传统nginx记录日志的方式数据会散落在各自nginx上,而且大流量日志本身对磁盘也是一种冲击。 我们需要把这部分nginx日志统一收集汇总起来,收集过程和结果需要满足如下需求: 支持不同业务获取数据,如监控业务,数据分析统计业务
lua-resty-kafka的使用
背景 在我们的系统架构中,Nginx作为所有HTTP请求的入口,是非常重要的一层。每天产生大量的Nginx Access Log,闲置在硬盘上实在是太浪费资源了。所以,能不能把Nginx日志利用起来,实时监控每个业务的访问趋势、用户行为、请求质量和后端异常呢,这就是本文要探讨的主题。目的 错误码告警(499、500、502和504); upstream_response_time超时告警;
ELK+Kafka 企业日志收集平台(二)
上篇博文主要总结了一下elk、基于kafka的zookeeper集群搭建,以及系统日志通过zookeeper集群达到我们集群的整个过程。下面我们接着下面这个未完成的几个主题 4.Kibana部署; 5.Nginx负载均衡Kibana请求; 6.案例:nginx日志收集以及MySQL慢日志收集; 7.Kibana报表基本使用; Kibana的部署; Kibana的作用,想必大家都知道了就
nginx error localhost could not be resolved (3: Host not found)
问题 在内网测试机上测试时发现,nginx解析locathost错误,实际resolver指向内网DNS服务192.168.0.1,抓包发现nginx发起dns查询向192.168.0.1查询失败。并且nginx并没有去读取本地hosts文件。 解决方法 用dnsmasq在本地自建DNS服务,nginx配置 resolver指向127.0.0.1,配置/etc/dnsmasq.con
ELK-filebeat+kafka日志收集
环境 centos6.9 ELK5.6 所有节点都是单点非集群 filebeat:10.99.2.16 elk:10.99.2.17 kafka:10.99.2.23 官方文档 软件下载 ELK5.6.7-rpm java1.8-rpm es安装 yum安装java环境和es: yum install elasticsearch-5.6.7.rpm jre-8u161-linux-x