1.在$FLUME_HOME/conf目录下编写agent文件power.conf,使用Flume采集无人机巡检数据power.txt,数据文件参考数据清洗部分;目标数据源类型为HDFS写入位置为hdfs上/source/logs/power/%Y-%m-%d/%H-%M-%S,文件前缀为events-。
2.创建文件采集路径/root/eduhq/power/和hdfs存储路径/source/logs/power/。
3.将环境/root/eduhq/09power/power.txt文件上传到/root/eduhq/power/。
4.启动Flume数据采集。
5.查看采集日志以及hdfs对应路径是否生成数据
请帮我写出用的配置文件和所有的模板
- 写回答
- 好问题 0 提建议
- 追加酬金
- 关注问题
- 邀请回答
-
5条回答 默认 最新
关注 引自免费微信小程序:皆我百晓生
为了帮助您完成这个任务,我会分步骤解释如何配置Flume并执行数据采集。首先,确保您已经安装了Apache Flume,并且已经设置了环境变量
$FLUME_HOME
指向Flume的安装目录。1. 创建配置文件
power.conf
在
$FLUME_HOME/conf
目录下,创建一个名为power.conf
的文件,然后添加以下内容,定义source、channel和sink:# 配置文件:power.conf # 定义 source(数据来源) a1.sources = r1 a1.sources.r1.type = spooldir a1.sources.r1.spoolDir = /root/eduhq/power/ a1.sources.r1.fileHeader = false a1.sources.r1.fileSuffix = .done a1.sources.r1.batchSize = 1000 # 定义 channel(数据缓冲区) a1.channels = c1 a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # 定义 sink(数据目的地) a1.sinks = k1 a1.sinks.k1.type = hdfs a1.sinks.k1.hdfs.path = hdfs://localhost:9000/source/logs/power/%Y-%m-%d/%H-%M-%S a1.sinks.k1.hdfs.filePrefix = events- a1.sinks.k1.hdfs.fileType = DataStream a1.sinks.k1.hdfs.writeFormat = Text a1.sinks.k1.hdfs.rollInterval = 60000 a1.sinks.k1.hdfs.rollCount = 0 a1.sinks.k1.hdfs.rollSize = 0 a1.sinks.k1.hdfs.batchSize = 1000 # 连接 source, channel 和 sink a1.sources.r1.channels = c1 a1.channels.c1.sinks = k1
2. 创建目录结构
在本地文件系统和HDFS上创建相应的目录结构:
mkdir -p /root/eduhq/power/ hadoop fs -mkdir -p /source/logs/power/
3. 上传数据文件到采集路径
将数据文件
09power/power.txt
复制到/root/eduhq/power/
路径下。cp 09power/power.txt /root/eduhq/power/
4. 启动Flume
在命令行中启动Flume agent:
$FLUME_HOME/bin/flume-ng agent --conf $FLUME_HOME/conf --name a1 --conf-file power.conf start
5. 查看采集日志和HDFS数据
检查Flume的日志输出,通常位于
$FLUME_HOME/logs
目录下的flume.log
文件。在那里,您可以找到有关数据传输的信息。同时,通过HDFS客户端检查目标路径上的数据生成情况:
hadoop fs -ls hdfs://localhost:9000/source/logs/power/
这将会显示所有已生成的数据文件,格式应为
events-<timestamp>.txt
。请注意,此配置假定您正在使用单节点Hadoop集群,并且Flume和Hadoop都运行在同一台机器上。如果您的环境不同,请相应地调整HDFS路径和端口设置。此外,要确保Hadoop集群正常运行,并且Flume有权限访问HDFS。
解决 无用评论 打赏 举报 编辑记录
悬赏问题
- ¥15 如何在vue.config.js中读取到public文件夹下window.APP_CONFIG.API_BASE_URL的值
- ¥50 浦育平台scratch图形化编程
- ¥20 求这个的原理图 只要原理图
- ¥15 vue2项目中,如何配置环境,可以在打完包之后修改请求的服务器地址
- ¥20 微信的店铺小程序如何修改背景图
- ¥15 UE5.1局部变量对蓝图不可见
- ¥15 一共有五道问题关于整数幂的运算还有房间号码 还有网络密码的解答?(语言-python)
- ¥20 sentry如何捕获上传Android ndk 崩溃
- ¥15 在做logistic回归模型限制性立方条图时候,不能出完整图的困难
- ¥15 G0系列单片机HAL库中景园gc9307液晶驱动芯片无法使用硬件SPI+DMA驱动,如何解决?