我们偶尔会遇到副本领头节点和其余isr节点之间的高延迟,这会导致使用者出现以下错误:
org.apache.kafka.clients.consumer.RetriableCommitFailedException: Commit offsets failed with retriable exception. You should retry committing offsets.
Caused by: org.apache.kafka.common.errors.TimeoutException: The request timed out.
我可以增加 offsets.commit.timeout.ms
但我不想,因为这可能会导致额外的副作用。但从更广泛的Angular 来看,我不希望代理等待同步所有其他副本上的提交偏移量,而是本地提交并异步更新其余副本。查看我找到的代理配置 offsets.commit.required.acks
它看起来就是这样配置的,但文档还神秘地指出: the default (-1) should not be overridden
.
为什么?我甚至试过查看代理的源代码,但没有发现什么额外的信息。
你知道为什么不推荐这个吗?有没有不同的方法来达到相同的结果?
1条答案
按热度按时间yyyllmsg1#
我建议实际重试提交偏移量。
让使用者异步提交偏移量并实现重试机制。但是,重试异步提交可能会导致在提交较大的偏移量之后再提交较小的偏移量的情况,这应该尽可能避免。
在《Kafka-权威指南》一书中,有一个关于如何缓解这个问题的提示:
重试异步提交:为异步重试获得正确的提交顺序的一个简单模式是使用单调递增的序列号。每次提交时增加序列号,并将提交时的序列号添加到commitasync回调。准备发送重试时,检查回调得到的提交序列号是否等于示例变量;如果是,则没有新的提交,可以安全地重试。如果示例序列号较高,则不要重试,因为已发送较新的提交。
例如,您可以在下面的scala中看到这个想法的实现: