我正在尝试使用kafka消息更新elasticsearch中的文档(作为streamsource)。使用windows和elasticsearch连接器作为接收器批量写入elasticsearch是可以的,但是,我们需要更新文档中的现有数据,并以批量执行的方式读取这些数据(不是针对每个元组,而是针对一个事件后的整个窗口) byKey()
我们要汇总的拆分)
我们现在正在使用storm trident,它在 persistentAggregate
并将更新后的聚合写回,以最小化与后端的交互。我只是在Flink身上找不到类似的东西-有什么线索吗?
1条答案
按热度按时间aiqt4smr1#
在流媒体上运行两个窗口调用如何-
window1
-从elasticsearch批量读取window2
-进入ElasticSearch。您可以使用任何适合的方法进行批量读取
Storm Trident
.在window2链接中使用bulkprocessor