我尝试在我的本地机器上设置Hadoop。但是,当我运行基于map reduce的wordcount示例时(* 我之前做了hdfs namenode -format *):
这可能很难阅读,但我最终得到一个 “作业失败,状态为失败,原因是:由于AM Container退出,应用程序失败2次,退出代码为:-1000此尝试失败。诊断:任何本地目录中都没有可用空间。"
我不明白为什么我有这样的错误。这是我的申请和尝试看起来像:
我学习了几个教程,最后得到了这些参数:
Map站点. xml:
configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
网站名称:
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.disk-health-checker.enable</name>
<value>false</value>
</property>
<property>
<name>yarn.application.classpath</name>
<value>
%HADOOP_HOME%\etc\hadoop,
%HADOOP_HOME%\share\hadoop\common\*,
%HADOOP_HOME%\share\hadoop\common\lib\*,
%HADOOP_HOME%\share\hadoop\hdfs\*,
%HADOOP_HOME%\share\hadoop\hdfs\lib\*,
%HADOOP_HOME%\share\hadoop\mapreduce\*,
%HADOOP_HOME%\share\hadoop\mapreduce\lib\*,
%HADOOP_HOME%\share\hadoop\yarn\*,
%HADOOP_HOME%\share\hadoop\yarn\lib\*
</value>
</property>
</configuration>
核心站点. xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml文件:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///C:/hadoop-3.3.0/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///C:/hadoop-3.3.0/data/datanode</value>
</property>
</configuration>
你能帮我一下吗?我已经试过这些问题中提到的:
- Hadoop errorcode -1000, No space available in any of the local directories,除了名称节点清空缓存部分。
- Hadoop Windows setup. Error while running WordCountJob: "No space available in any of the local directories"
你觉得怎么样?
谢谢大家!
1条答案
按热度按时间t5fffqht1#
我在使用3节点(Ubuntu 18.04)Cloudera群集时遇到了同样的问题