我将spark作业提交到emr集群来处理文件,稍后将其作为orc文件写入,由presto读取。在分析数千个文件时,我发现了一个问题,即条纹的大小被写入的行数比每个条纹预期的要少很多。我知道在Hive里我可以设置一张table的条纹大小,但是有没有办法在spark里也可以设置呢?
目前还没有任何答案,快来回答吧!
暂无答案!
目前还没有任何答案,快来回答吧!