我需要在单独的机器上运行flume,它不是hdfs数据节点或名称节点的一部分,它必须从kafka读取数据并将其存储在单独集群中运行的hdfs中。能做到吗?我收到了与hadoopjar文件相关的错误。
ygya80vv1#
ApacheFlume需要HadoopJARsforHDFSsink,因为您正在从kafka读取数据并存储回hdfs。请在类路径中添加所有与hadoop相关的jar,然后重新运行它。
1条答案
按热度按时间ygya80vv1#
ApacheFlume需要HadoopJARsforHDFSsink,因为您正在从kafka读取数据并存储回hdfs。
请在类路径中添加所有与hadoop相关的jar,然后重新运行它。