把Flume的spooldir目录中的文件传到HDFS失败——java.io.IOException:File type DataStream not supported

这个问题困扰两天了——Flume能检测到Spooldir目录中的文件增加,但是就是传不到hdfs中,总是报错:java.io.IOException:File type DataStream not supported
我的hadoop集群第一台是master,另外两台是slave。
图片说明图片说明

flume的配置如下:

Name the components on this agent

 
agent1.sources = spooldirSource
 
agent1.channels = fileChannel
 
agent1.sinks = hdfsSink
 
 
 

Describe/configure the source

 
agent1.sources.spooldirSource.type=spooldir
 
agent1.sources.spooldirSource.spoolDir=/usr/local/flume/data/spooldir
 
 
 

Describe the sink

 
agent1.sinks.hdfsSink.type=hdfs
 
agent1.sinks.hdfsSink.hdfs.path=hdfs://192.168.174.128:9000/flume/%y-%m-%d/%H%M/%S
 
agent1.sinks.hdfsSink.hdfs.round = true
 
agent1.sinks.hdfsSink.hdfs.roundValue = 10
 
agent1.sinks.hdfsSink.hdfs.roundUnit = minute
 
agent1.sinks.hdfsSink.hdfs.useLocalTimeStamp = true
 
agent1.sinks.hdfsSink.hdfs.fileType=DataStream  
 
 
 

Describe the channel

 
agent1.channels.fileChannel.type = file
 
agent1.channels.fileChannel.dataDirs=/hadoop/flume/datadir
 
 
 

Bind the source and sink to the channel

 
agent1.sources.spooldirSource.channels=fileChannel
 
agent1.sinks.hdfsSink.channel=fileChannel

另外,/hadoop/flume/datadir这个目录是在master上会自动创建的目录吗,不太懂。

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问
相关内容推荐