flink:如何在flink中处理空值,特别是在读取csv文件时。我是从火星回来的。所以spark中有空处理。比如df.na.fill等。所以我想知道在DataSetaAPI中是否有这样的功能,或者唯一的方法就是使用map函数。另外,使用pojo而不是case类是否更好?当数据文件中缺少值时,在pojo中启动的默认值是否会生效。
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!