我有一个配置单元自定义项,我正在尝试将日志从我的自定义项重定向到 hive-server2.log
. 我正在使用 beeline
用于执行查询。所以我修改了下面的文件。
/etc/hive/conf.dist/beeline-log4j2.properties属性
status = INFO
name = BeelineLog4j2
packages = org.apache.hadoop.hive.ql.log
# list of properties
property.hive.log.level = INFO
property.hive.root.logger = console
# list of all appenders
appenders = console
# console appender
appender.console.type = Console
appender.console.name = console
appender.console.target = SYSTEM_ERR
appender.console.layout.type = PatternLayout
appender.console.layout.pattern = %d{yy/MM/dd HH:mm:ss} [%t]: %p %c{2}: %m%n
# list of all loggers
loggers = HiveConnection
# HiveConnection logs useful info for dynamic service discovery
logger.HiveConnection.name = org.apache.hive.jdbc.HiveConnection
logger.HiveConnection.level = INFO
# root logger
rootLogger.level = ${sys:hive.log.level}
rootLogger.appenderRefs = root
rootLogger.appenderRef.root.ref = ${sys:hive.root.logger}
# loggr for UDF
log4j.logger.com.abc=DEBUG,console
我试过了,把日志重定向到不同的文件。但是它不起作用。
log4j.logger.com.abc=DEBUG, console, rollingFile
log4j.appender.rollingFile=org.apache.log4j.RollingFileAppender
log4j.appender.rollingFile.File=/tmp/bmo.log
log4j.appender.rollingFile.layout=org.apache.log4j.PatternLayout
log4j.appender.rollingFile.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %m%n
log4j.appender.rollingFile.MaxFileSize=10MB
log4j.appender.rollingFile.MaxBackupIndex=5
log4j.appender.rollingFile.append=true
我面临两个问题。
不管我为我的记录器设置了什么级别,我只获取信息日志。我看不到调试日志。
如果我在自定义项中使用一些聚合函数(即min、max),我将看不到任何日志。在哪里可以找到日志?只有在列上仅使用自定义项时才会显示日志。
暂无答案!
目前还没有任何答案,快来回答吧!