在结构化流式处理来自Kafka主题的数据时指定检查点位置

tyg4sfes  于 2022-09-21  发布在  Kafka
关注(0)|答案(1)|浏览(211)

我已经构建了一个从Kafka主题读取数据的Spark结构化流应用程序,我已经将起始偏移量指定为最新,如果从Spark端出现任何故障会发生什么情况,重新启动后数据将从哪个点/偏移量继续读取,在写入流中指定检查点以确保我们从应用程序/Spark发生故障的点读取数据好吗?请让我知道。

inkz8wg9

inkz8wg91#

你可以使用检查点,是的,或者你可以设置kafka.group.id(至少在Spark 3+中)。

否则,它可能会从主题的结尾处开始

相关问题