namenode在 stop-all.sh 与 start-all.sh . 我尽力了 hadoop namenode -format 以及 hadoop-daemon.sh 启动namenode,然后一切正常。但是我的数据在hdfs中丢失了。我不想数据丢失。这个结果, hadoop namenode -format 命令不是我想要的解决方案。如何启动namenode start-all.sh ?谢谢
stop-all.sh
start-all.sh
hadoop namenode -format
hadoop-daemon.sh
g6baxovj1#
首先, stop-all.sh 与 start-all.sh 已弃用。使用 start-dfs.sh 以及 start-yarn.sh 而不是 start-all.sh . 与相同 stop-all.sh (上面已经这么说了)其次, hadoop namenode -format 格式化您的HDF,因此只能在安装时使用一次。hadoop默认设置 hadoop.tmp.dir 到中的目录 /tmp ,每次重新启动后都会删除文件。设置 hadoop.tmp.dir 中的属性 $HADOOP_HOME/conf/hadoop/core-site.xml ,到一些通常不删除文件的地方。运行 hadoop namenode -format (实际上是的 hdfs namenode -format 最后一次,启动守护进程。附言:如果你能发布日志文件或终端截图的错误,这将更容易帮助你。
start-dfs.sh
start-yarn.sh
hadoop.tmp.dir
/tmp
$HADOOP_HOME/conf/hadoop/core-site.xml
hdfs namenode -format
s71maibg2#
hadoop.temp.dir 温度=应为“tmp”=> hadoop.tmp.dir 我只漏掉了“e”。
hadoop.temp.dir
2条答案
按热度按时间g6baxovj1#
首先,
stop-all.sh
与start-all.sh
已弃用。使用start-dfs.sh
以及start-yarn.sh
而不是start-all.sh
. 与相同stop-all.sh
(上面已经这么说了)其次,
hadoop namenode -format
格式化您的HDF,因此只能在安装时使用一次。hadoop默认设置
hadoop.tmp.dir
到中的目录/tmp
,每次重新启动后都会删除文件。设置hadoop.tmp.dir
中的属性$HADOOP_HOME/conf/hadoop/core-site.xml
,到一些通常不删除文件的地方。运行hadoop namenode -format
(实际上是的hdfs namenode -format
最后一次,启动守护进程。附言:如果你能发布日志文件或终端截图的错误,这将更容易帮助你。
s71maibg2#
hadoop.temp.dir
温度=应为“tmp”=>hadoop.tmp.dir
我只漏掉了“e”。