beeline-hiveudf在使用聚合函数执行时不显示日志

gt0wga4j  于 2021-05-31  发布在  Hadoop
关注(0)|答案(0)|浏览(595)

我有一个配置单元自定义项,我正在尝试将日志从我的自定义项重定向到 hive-server2.log . 我正在使用 beeline 用于执行查询。所以我修改了下面的文件。
/etc/hive/conf.dist/beeline-log4j2.properties属性

status = INFO
name = BeelineLog4j2
packages = org.apache.hadoop.hive.ql.log

# list of properties

property.hive.log.level = INFO
property.hive.root.logger = console

# list of all appenders

appenders = console

# console appender

appender.console.type = Console
appender.console.name = console
appender.console.target = SYSTEM_ERR
appender.console.layout.type = PatternLayout
appender.console.layout.pattern = %d{yy/MM/dd HH:mm:ss} [%t]: %p %c{2}: %m%n

# list of all loggers

loggers = HiveConnection

# HiveConnection logs useful info for dynamic service discovery

logger.HiveConnection.name = org.apache.hive.jdbc.HiveConnection
logger.HiveConnection.level = INFO

# root logger

rootLogger.level = ${sys:hive.log.level}
rootLogger.appenderRefs = root
rootLogger.appenderRef.root.ref = ${sys:hive.root.logger}

# loggr for UDF

log4j.logger.com.abc=DEBUG,console

我试过了,把日志重定向到不同的文件。但是它不起作用。

log4j.logger.com.abc=DEBUG, console, rollingFile
log4j.appender.rollingFile=org.apache.log4j.RollingFileAppender
log4j.appender.rollingFile.File=/tmp/bmo.log
log4j.appender.rollingFile.layout=org.apache.log4j.PatternLayout
log4j.appender.rollingFile.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %m%n
log4j.appender.rollingFile.MaxFileSize=10MB
log4j.appender.rollingFile.MaxBackupIndex=5
log4j.appender.rollingFile.append=true

我面临两个问题。
不管我为我的记录器设置了什么级别,我只获取信息日志。我看不到调试日志。
如果我在自定义项中使用一些聚合函数(即min、max),我将看不到任何日志。在哪里可以找到日志?只有在列上仅使用自定义项时才会显示日志。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题