如何在spark的磁盘上而不是在ram上进行计算?

deikduxw  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(322)

我是Spark新手,想在磁盘上运行Spark程序。我想在磁盘上加载rdd而不是ram。我怎么做?

w8rqjzmb

w8rqjzmb1#

使用rdd.cache(仅限于磁盘)
它只在磁盘上存储rdd分区。

相关问题