kafka使用哪个卷?

8qgya5xd  于 2021-06-04  发布在  Kafka
关注(0)|答案(1)|浏览(226)

我在一个日志集中项目上工作。
我正在和elk一起收集/聚合/存储/可视化我的数据。我知道Kafka对于大量的数据是有用的,但是我无法从大量的数据中找到信息,使用它会变得有趣。
每天10千兆的原木?少,多?
谢谢你的帮助。

ddrv8njm

ddrv8njm1#

让我们从两个方面来解决这个问题。
Kafka适合哪些数据量?Kafka的使用范围很广(netflix、uber、paypal、twitter等),也很小。
如果需要的话,可以从一个由三个代理组成的集群开始,并根据需要进行扩展。在Kafka,每天10gb的数据量是完全合理的,但也会少十倍或多十倍。
Kafka适合做什么?在您的问题中,kafka充当了系统间事件驱动的集成点。它可以是一个“愚蠢”的管道,但由于它保存了数据,使得它可以在其他地方重新消费。它还提供本机流处理功能以及与其他系统的集成。
如果你所做的只是把日志放到elasticsearch中,那么Kafka可能是杀伤力过大了。但是,如果您想在另一个地方(例如hdfs、s3等)使用该日志数据,或者处理它以获得模式,或者过滤它以获得路由到其他地方的条件,那么kafka将是一个明智的选择。本文将探讨其中的一些概念。
具体到elk和kafka,logstash和beats可以作为输出写入kafka,还有一个kafka connect连接器用于elasticsearch
免责声明:我为confluent工作。

相关问题