我使用的是ubuntu14.6,kafka_2.11 - 2.20,zookeeper-3.4.14,storm-1.2.3.当我使用LocalCluster模式时,可以将日志发送给kafka,我可以通过kafka消费者获得日志.但是我倾向于通过Cluster模式提交拓扑,它不能通过kafka消费者获得日志.这是我的log4j配置
<configuration status="INFO">
<appenders>
<Kafka name="kafkaLog" topic="connect-test" ignoreExceptions="false">
<PatternLayout pattern="%m%n" />
<Property name="bootstrap.servers">192.168.23.165:9092</Property>
<Property name="max.block.ms">2000</Property>
</Kafka>
</appenders>
<loggers>
<logger level = "info" name= "BasicDemo" additivity="false">>
<appender-ref ref="kafkaLog"/>
</logger>
<root level="info">
<appender-ref ref="kafkaLog"/>
</root>
<logger name="org.apache.kafka" level="INFO"/>
</loggers>
</configuration>
log4j能否将分布式系统日志发送给Kafka?
1条答案
按热度按时间mum43rcc1#
我不认为这个问题真的和Storm有什么关系,我也不认为这个问题和log4j有什么关系,你可能需要检查一下你的分布式工作机器是否真的可以连接到Kafka。
还要记住,您需要将log4j配置放在storm/log4j2/worker.xml中。