我正在设置一个hadoop节点,但是在运行时 $HADOOP_HOME/sbin/start-dfs.sh
无法找到的指纹 $HADOOP_HOME/bin/hdfs
. 不过,那个位置的文件是存在的,我可以很好地读取它。
从start-dfs.sh脚本记录:
root@hadoop:/opt/hadoop-2.7.3# sbin/start-dfs.sh
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
Starting namenodes on []
localhost: starting namenode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
localhost: starting datanode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-datanode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
据我所知,我所有的路径变量都设置正确(echo$hadoop\u home返回正确的目录)。
1条答案
按热度按时间ylamdve61#
一般
/etc/environment
文件专门用于系统范围的环境变量设置。它不是脚本文件,而是由赋值表达式组成,每行一个。它不是由shell脚本处理的。
请在中设置环境变量
.bashprofile
或者.bashrc
启动hadoop进程。请参考有关环境变量的详细信息。