已在3节点群集上安装cloudera cdh4。尝试通过从属节点(datanodes)访问hdfs中的数据时遇到问题。
当我尝试在hdfs中使用
hadoop fs-mkdirFlume(foldername)
命令无法从任何一个从机将数据或创建文件夹放在集群的hdfs中,但从主节点工作,还有flume、hive、pig所有其他进程都在从机(datanodes)中运行尝试重新启动集群namenode格式仍然不工作!!
第二,当我做
hadoop fs-ls版/
结果不是来自hdfs,而是来自我使用此命令的从属节点的当前目录路径。以及除了在hdfs中创建目录之外,如何检查hdfs在集群的从属节点(datanodes)中是否正常工作和安装。有人能帮忙吗?
1条答案
按热度按时间azpvetkf1#
请验证core-site.xml中的属性“fs.default.name”。