我可以看到一个相关的错误已经提出了Kafka吉拉。总之,代理无法安排日志清理,因为相关的日志文件既不能压缩也不能重命名以便删除。但看起来还没有解决。我想知道是否有其他人经历过这个问题,以及任何解决方法(如果存在)?
似乎在集群完全(并且优雅地)关闭之前,日志文件永远不会关闭。有谁能提出一个解决办法吗?
我的群集信息
1) 3个代理和3个管理员2)同一台笔记本电脑上的标准开发设置3)所有日志文件都在公共目录下 /tmp
目录,但结构在不同的子目录中
/temp/zookeeper
/temp/zookeeper2
/temp/zookeeper3
/temp/kafka-logs
/temp/kafka-logs2
/temp/kafka-logs3
我的代理配置(每个serverx.properties文件正确替换代理ID和日志文件位置)
# The id of the broker. This must be set to a unique integer for each broker.
broker.id=0
listeners=PLAINTEXT://localhost:9092
listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=999999999
log.dirs=/tmp/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
log.retention.hours=2
log.retention.bytes=262144000
log.segment.bytes=262144000
log.roll.hours=1
log.retention.check.interval.ms=300000
offsets.retention.minutes=60
offsets.retention.check.interval.ms=300000
zookeeper.connect=localhost:2181,localhost:2182,localhost:2183
# Timeout in ms for connecting to zookeeper
zookeeper.connection.timeout.ms=30000
# Compression details
compression.type=gzip
# delete topic enable
delete.topic.enable=true
韩元,
暂无答案!
目前还没有任何答案,快来回答吧!