我使用SparkyR 1.6.0中实现的函数spark_write_rds(),在hdfs上加载数据,如下所示:
spark_write_rds(
sdf,
dest_uri = "hdfs://<namenode>:8020/sdf-{partitionId}.rds"
)
代价是出现以下错误:
错误:java.lang.unsupportedoperationexception:未由“clustername”文件系统实现实现
有人知道问题出在哪里吗?
我替换了错误消息中的clustername。
暂无答案!
目前还没有任何答案,快来回答吧!