我有一个 logstash
管道在很大程度上,将数据充分解析为json,以便 elasticsearch
; 然而。。。有时它不能很好地解析字段,并找到非常奇怪的键和值,大多数情况下,这些键非常长,例如: aaaakgaaaaiaaaaaaaaaabiofy1mb...
.
我希望能够删除这些领域的基础上多久的关键是在数据库中 kv
. 假设任何超过30个字符的字段都被移除。虽然我可以提高 logstash
在未来解析这些问题将不会持续,现在我想有这样的东西作为最后缝合健全检查。
1条答案
按热度按时间t9aqgxwy1#
使用以下两个步骤尝试此筛选器:
前缀kv字段,以便能够识别它们(此处可选)
在此前缀字段上循环以应用条件(此处限制包括30个前缀)