spark的log4j.properties sizebaedtriggeringpolicy不起作用

uubf1zoe  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(253)

我使用log4j内Spark2.4.4为我的日志需要。我有一个要求,卷文件时,它达到1 mb的大小,也每天,如果大小没有达到阈值为一整天。因此,我在log4j.properties中定义了一个自定义文件附加器,因此:

log4j.appender.customAppender=org.apache.log4j.rolling.RollingFileAppender
log4j.appender.customAppender.Threshold=WARN
log4j.appender.customAppender.File=file:///opt/log/app_log.txt
log4j.appender.customAppender.RollingPolicy=org.apache.log4j.rolling.TimeBasedRollingPolicy
log4j.appender.customAppender.TriggeringPolicy=org.apache.log4j.rolling.SizeBasedTriggeringPolicy
log4j.appender.customAppender.RollingPolicy.FileNamePattern=/opt/log/app_log.%d{MM-dd-yyyy}.%i.txt.gz
log4j.appender.customAppender.RollingPolicy.ActiveFileName=/opt/log/app_log.txt
log4j.appender.customAppender.TriggeringPolicy.MaxFileSize=1000000
log4j.appender.customAppender.layout=org.apache.log4j.PatternLayout
log4j.appender.customAppender.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c - %m%n

log4j.logger.custLogger=INFO,customAppender
log4j.additivity.custLogger=false

我将additivity设置为false,因为rootlogger和定制logger都记录了两次。问题是,我现在看到文件的大小越来越小,比如1276字节。然而,并不是说整个log4j配置都被忽略了。我已经通过更改活动文件名对此进行了测试,并在我运行的下一个spark submit作业中看到了它的更改。那么为什么要忽略maxfilesize呢?请帮我解决这个问题。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题