我想用log4j记录STORM日志并将日志发送给Kafka,结果是kafka STORM可以自己记录日志log4j但不能将日志发送给kafka

am46iovg  于 2022-12-09  发布在  Apache
关注(0)|答案(1)|浏览(234)

我使用的是ubuntu14.6,kafka_2.11 - 2.20,zookeeper-3.4.14,storm-1.2.3.当我使用LocalCluster模式时,可以将日志发送给kafka,我可以通过kafka消费者获得日志.但是我倾向于通过Cluster模式提交拓扑,它不能通过kafka消费者获得日志.这是我的log4j配置

<configuration status="INFO">
    <appenders>
        <Kafka name="kafkaLog" topic="connect-test" ignoreExceptions="false">
        <PatternLayout pattern="%m%n" />
                <Property name="bootstrap.servers">192.168.23.165:9092</Property>
                <Property name="max.block.ms">2000</Property>
        </Kafka>

    </appenders>

    <loggers>
        <logger level = "info" name= "BasicDemo" additivity="false">>
            <appender-ref ref="kafkaLog"/>
        </logger>
        <root level="info">
            <appender-ref ref="kafkaLog"/>
        </root>
        <logger name="org.apache.kafka" level="INFO"/>
    </loggers>
</configuration>

log4j能否将分布式系统日志发送给Kafka?

mum43rcc

mum43rcc1#

我不认为这个问题真的和Storm有什么关系,我也不认为这个问题和log4j有什么关系,你可能需要检查一下你的分布式工作机器是否真的可以连接到Kafka。
还要记住,您需要将log4j配置放在storm/log4j2/worker.xml中。

相关问题