我正在尝试重新索引数据,并根据源文档中的字段进行一些计算。我使用了摄取管道来丰富文档中的geo\u点,并希望计算一些其他值。
我遇到的问题是源数据抛出了一个错误,说它不能被强制转换。详情如下:
原始(从ml csv输入):
"_source": {
"Time": "18.06.2017 17:37:32",
"Weight (kg)": 286000,
"People": 2,
"Seats": "2"}
但是,使用ml进行的导入清楚地说明了以下内容:
{
"convert": {
"field": "Seats",
"type": "long",
"ignore_missing": true
}
},{
"convert": {
"field": "People",
"type": "long",
"ignore_missing": true
}
}
传入的原始数据在某种程度上是一致的,所有的值都是严格的数字,没有引号等(前3个是重量、座位和人:
66990;189;172;0;0;0;0;0
为了便于澄清,后面的索引Map/Map模板也显示了正确的类型:
"People": {
"type": "long"
},
"Seats": {
"type": "long"
},
现在,当我使用kibana脚本字段时,我可以计算如下:
if (doc['Seats'].value == 0)
{ return 0 } else
{
long utilization = (doc["People"].value * 100)/doc["Seats"].value;
return utilization
}
一切正常,我得到一个计算的利用率。
当我尝试对摄取管道中的脚本执行相同操作时,如下所示:
"caused_by" : {
"type" : "class_cast_exception",
"reason" : "cannot explicitly cast float [java.lang.String] to byte"
}
我使用的代码如下:
"script": {
"if": "!(ctx.Seats=0) && !(ctx.Seats==null)",
"lang": "painless",
"source": "ctx.utilization = (float)ctx.People*100.0/(float)ctx.Seats"
}
我的问题是:
为什么ml摄取行为不同(来自csv的原始数据完全相同,只有int)
在摄入管道中我能做些什么来完成它
kibana索引模式的性能是否与摄取管道一样好,或者我是否应该在负载等方面坚持摄取管道。
谢谢你的帮助和提示。
奇比苏克
1条答案
按热度按时间omtl5h9j1#
在摄入管道中,
ctx.Seats
仍将是字符串,因为它是源文档中的字符串。您要么需要在脚本中解析它,要么就在脚本之前转换它。选项,而不进行转换并仅分析脚本中的值:
在运行脚本之前使用转换选项: