Flume辊设置不工作

beq87vna  于 2021-06-04  发布在  Flume
关注(0)|答案(1)|浏览(402)

编辑*:以下是完整的配置文件:

tier1.sources = source1
tier1.channels = channel1
tier1.sinks = sink1
tier1.sources.source1.type = org.apache.flume.source.kafka.KafkaSource
tier1.sources.source1.command = /usr/bin/vmstat 1
tier1.sources.source1.channels = channel1
tier1.sources.source1.kafka.consumer.timeout.ms = 20000000
tier1.channels.channel1.type = org.apache.flume.channel.kafka.KafkaChannel
tier1.channels.channel1.capacity = 10000
tier1.channels.channel1.transactionCapacity = 1000
tier1.channels.channel1.brokerList= ip.address:9092
tier1.channels.channel1.topic= test1
tier1.channels.channel1.zookeeperConnect=ip.address:2181
tier1.channels.channel1.parseAsFlumeEvent=false

tier1.sinks.sink1.type = hdfs
tier1.sinks.sink1.hdfs.path = /user/flume/
tier1.sinks.sink1.hdfs.rollInterval = 5000
tier1.sinks.sink1.hdfs.rollSize = 5000
tier1.sinks.sink1.hdfs.rollCount = 1000
tier1.sinks.sink1.hdfs.idleTimeout= 10
tier1.sinks.sink1.hdfs.maxOpenFiles=1
tier1.sinks.sink1.hdfs.fileType = DataStream
tier1.sinks.sink1.channel = channel1

直到最近我才有空闲时间和maxopenfiles。所以这两个选项的默认配置都不起作用。
关于使用flume聚合kafka数据的问题。目前,flume正在每秒创建一个新文件,以便读取流数据。以下是我的设置:

tier1.sinks.sink1.hdfs.rollInterval = 500 (should be 500 seconds)
tier1.sinks.sink1.hdfs.rollSize = 5000 (should be bytes)
tier1.sinks.sink1.hdfs.rollCount = 1000 (number of events)

我不完全确定的一个设置是rollcount,因此有一些附加信息:
我得到80字节/秒,我的一些文件是80字节,有2条消息,有些是160字节,但有4条消息。所以它不是根据时间或大小来做的,所以它可能必须是count,但我不明白为什么这么小的消息会注册为1000个事件?
谢谢你的帮助!

pexxcrt2

pexxcrt21#

滚动间隔可以是毫秒吗?我想我以前可能有过这个问题。

相关问题