首页
问答库
知识库
教程库
标签
AI工具箱
登录
注册
投稿
如何在spark的磁盘上而不是在ram上进行计算?
deikduxw
于 2021-06-02
发布在
Hadoop
关注(0)
|
答案(1)
|
浏览(322)
我是Spark新手,想在磁盘上运行Spark程序。我想在磁盘上加载rdd而不是ram。我怎么做?
hadoop
apache-spark
来源:
https://stackoverflow.com/questions/26861756/how-can-i-do-computation-on-disk-in-spark-instead-of-ram
关注
举报
1
条答案
按热度
按时间
w8rqjzmb
1#
使用rdd.cache(仅限于磁盘)
它只在磁盘上存储rdd分区。
赞(0)
分享
回复(0)
举报  
2021-06-03
首页
上一页
1
下一页
末页
我来回答
相关问题
查看更多
热门标签
更多
Java
query
python
Node
开发语言
request
Util
数据库
Table
后端
算法
Logger
Message
Element
Parser
最新问答
更多
xxl-job 安全组扫描到执行器端口服务存在信息泄露漏洞
回答(1)
发布于
6个月前
xxl-job 不能和nacos兼容?
回答(3)
发布于
6个月前
xxl-job 任务执行完后无法结束,日志一直转圈
回答(3)
发布于
6个月前
xxl-job-admin页面上查看调度日志样式问题
回答(1)
发布于
6个月前
xxl-job 参数512字符限制能否去掉
回答(1)
发布于
6个月前
1条答案
按热度按时间w8rqjzmb1#
使用rdd.cache(仅限于磁盘)
它只在磁盘上存储rdd分区。