当我试图将名为“input.txt”的输入文件复制到hdfs时,
hdfs dfs -put /home/pras/input/input.txt /pras
我得到以下例外。
put: Call From pras-Insp/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused;
我该怎么解决这个问题?
ou6hu8tu1#
我假设core-site.xml配置不好。请转到$hadoop\u install/etc/hadoop,编辑core-site.xml并设置以下属性:
<property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property>
要获得更多帮助,请查看此http://codesfusion.blogspot.gr/2013/10/setup-hadoop-2x-220-on-ubuntu.html
vktxenjb2#
当我试着 $ jps 我没有看到namenode。所以,1) 我停止了hadoop服务
$ jps
$ ./stop-all.sh
2) 格式化了namenode。
$ hdfs namenode -format
3) 重新启动。
$ ./start-all.sh
现在它似乎起作用了。
aydmsdu93#
您提到过要将input.txt文件放在哪里的hdfs目录路径吗?它应该类似于hadoop fs-put/home/user/input.txt/tmp(/tmp是hdfs目录)。
3条答案
按热度按时间ou6hu8tu1#
我假设core-site.xml配置不好。请转到$hadoop\u install/etc/hadoop,编辑core-site.xml并设置以下属性:
要获得更多帮助,请查看此
http://codesfusion.blogspot.gr/2013/10/setup-hadoop-2x-220-on-ubuntu.html
vktxenjb2#
当我试着
$ jps
我没有看到namenode。所以,1) 我停止了hadoop服务
2) 格式化了namenode。
3) 重新启动。
现在它似乎起作用了。
aydmsdu93#
您提到过要将input.txt文件放在哪里的hdfs目录路径吗?
它应该类似于hadoop fs-put/home/user/input.txt/tmp(/tmp是hdfs目录)。