无法用uri连接hdfs

btqmn9zl  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(349)

我无法使用uri连接hdfs这里是我的示例代码

Configuration configuration = new Configuration();
    FileSystem hdfs = FileSystem.get(new URI("hdfs://localhost:9000/vedio/realvedio.mp4"),configuration);
    InputStream inputStream = hdfs.open(new Path("hdfs://localhost:9000/vedio/realvedio.mp4"));

    byte[] b = org.apache.commons.io.IOUtils.toByteArray(inputStream);

使用上述代码工作正常,但由于我无法连接到i/p而不是本地主机

Configuration configuration = new Configuration();
        FileSystem hdfs = FileSystem.get(new URI("hdfs://192.168.0.158:9000/vedio/realvedio.mp4"),configuration);
        InputStream inputStream = hdfs.open(new Path("hdfs://192.168.0.158:9000/vedio/realvedio.mp4"));
byte[] b = org.apache.commons.io.IOUtils.toByteArray(inputStream);

我得到以下的执行

ipc.Client: Retrying connect to server: sushmag.iton.local/192.168.0.158:9000. Already tried 0 time(s); maxRetries=45

伙计们,请帮我解决这个问题。

bqf10yzr

bqf10yzr1#

如果您不能成功执行以下任何命令,这意味着您的hdfs可能会关闭。

hadoop fs -ls hdfs://localhost:9000/

hadoop fs -ls hdfs://192.168.0.158:9000/

使用启动hdfs start-dfs.sh 脚本并确保以下守护进程正在运行,可以使用jps命令
名称节点
数据节点

相关问题