如何使用flume将一组csv文件从本地目录复制到hdfs?我尝试使用spool目录作为源,但复制失败。然后,我使用以下Flume配置来获得结果:
agent1.sources = tail
agent1.channels = MemoryChannel-2
agent1.sinks = HDFS
agent1.sources.tail.type = exec
agent1.sources.tail.command = tail -F /home/cloudera/runs/*
agent1.sources.tail.channels = MemoryChannel-2
agent1.sinks.HDFS.channel = MemoryChannel-2
agent1.sinks.HDFS.type = hdfs
agent1.sinks.HDFS.hdfs.path = hdfs://localhost:8020/user/cloudera/runs
agent1.sinks.HDFS.hdfs.file.Type = DataStream
agent1.channels.MemoryChannel-2.type = memory
我得到了我的文件复制到hdfs,但他们包含特殊字符,将是没有用的我。我的本地目录是/home/cloudera/runs,我的hdfs目标目录是/user/cloudera/runs。
2条答案
按热度按时间rqqzpn5f1#
oalqel3c2#
在你的Flume里,你需要
agent1.sinks.HDFS.hdfs.fileType = DataStream
而不是agent1.sinks.HDFS.hdfs.file.Type = DataStream
休息似乎很好。