hadoop Spark任务读取的块大小超过128MB?这怎么可能?

daupos2t  于 2022-11-01  发布在  Hadoop
关注(0)|答案(1)|浏览(276)

我加载了一个9.4 GB的文件,因此它创建了74个分区,这是正确的(74 * 128MB = 9472)。但我看到很少有任务读取超过128MB,如160 MB和所有如下所示。这怎么可能?当分区大小为128 MB时,它怎么能读取超过这一点?

hiz5n14c

hiz5n14c1#

文件行(行)可能不完全位于128 mb的块中,并且/或者数据类型的内存表示形式稍大

相关问题