我需要集成Logstash数据摄取,以包含存储在Azure BLOB存储容器中的JSON文件。这些JSON文件不断被追加,Logstash预计会“跟踪”这些文件,并将每个新添加的记录处理到Elasticsearch。由于这些文件是本地的,我们确实有一个工作的Logstash输入实现:
input {
file {
path => "/logs/json/*"
start_position => "beginning"
# remove this for not always starting from the beginning of the file
sincedb_path => "/dev/null"
codec => "json"
type => "json"
mode => "tail"
}
}
字符串
由于文件存储在Azure BLOB存储容器中,因此此输入显然无法工作。
input {
azure_blob_storage {
型
但是这些不再支持/通常可用。
从Azure BLOB存储中获取持续添加的记录并将其放入Logstash的最常见/可支持的方法是什么?
1条答案
按热度按时间iq3niunx1#
您可以测试Azure Event Hubs插件
这是官方的doc,你可以找到解释Blob存储连接的部分。
也可以使用filebeat并使用此插件filebeat-input-azure-blob-storage
检查此doc