我目前正在使用:
- filebeat 8.1.3(安装在Windows上),
- Elasticsearch版本7.17.1
- logstash 8.1.3
- Kafka elk、Kafka在1台服务器上
关于架构,我首先在Windows上安装了filebeat,从那里获取日志。然后我想用它将日志输出到Kafka,然后从Kafka到logstash。最后从logstash到elasticsearch。就像下面的图片一样
然而,我在Kibana上看不到来自Kafka/logstash(来自Windows filebeat)的日志。我在Windows上的filebeat配置(filebeat.yml):
- 类型:日志路径:
- “E:/QwikCilver/Applogs/AppLog/zeus/zeus.log”ignore_older:5m scan_frequency:1m close_inactive:10s close_removed:true clean_removed:true close_renamed:true multiline.type:pattern multiline.pattern:'^[0 -9]{4}-[0 - 9]{2}-[0-9]{2}' multiline.negate:true multiline.match:after tags:[“Perf”,“zeus.log”]
output.kafka:主持人:[“internal-a6a50c1cf23db4fa582d77b7a28d2fc9-485248067.ap-south-1.elb.amazonaws.com:9092”]启用:true主题:“my_topic”分区。round_robin:reachable_only:false
required_acks:1 compression:gzip max_message_bytes:1000000
My logstash config:
input {
kafka {
bootstrap_servers => "kafka-broker.kafka.svc.cluster.local:9092"
topics => ["my_topic"]
codec => json
}
}
filter {
}
output {
elasticsearch {
index => "others-%{+YYYY.MM.dd}"
hosts => ["elasticsearch:9200"]
user => elastic
password => *********
}
}
字符串
我不知道我应该怎么做,是不是Windows上的主题设置有问题?或者我应该怎么做才能通过Kafka和logstash从Windows上的filebeat获取日志到Elasticsearch?
我对这个Kafka设置还不熟悉。Kafka已经使用https://github.com/meniem/kafka-helm/tree/main设置
尝试进入Kafka容器并能够创建和发送主题并获取kibana上的数据。
1条答案
按热度按时间b5lpy0ml1#
首先,您应该使用Elasticsearch 8.x与相同版本的Filebeat / Logstash。
其次,Kafka和Logstash都是必要的,因为Filebeat可以直接输出到Elasticsearch。
或者Filebeat can send TCP events到Logstash,也没有Kafka。
Kafka是用.
1.这个repo没有维护。
1.您将Filebeat指向某个AWS服务器,该服务器与您的Logstash引导服务器不匹配
或者,Kafka Connect也可以读取文件并写入Elasticsearch,所以如果你确实想使用Kafka,你不需要Filebeat或Logstash。