spark_write_rds()函数无法在hdfs上加载数据

t0ybt7op  于 2021-07-13  发布在  Hadoop
关注(0)|答案(0)|浏览(191)

我使用SparkyR 1.6.0中实现的函数spark_write_rds(),在hdfs上加载数据,如下所示:

spark_write_rds(
      sdf,
      dest_uri = "hdfs://<namenode>:8020/sdf-{partitionId}.rds"
    )

代价是出现以下错误:
错误:java.lang.unsupportedoperationexception:未由“clustername”文件系统实现实现
有人知道问题出在哪里吗?
我替换了错误消息中的clustername。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题