当我尝试在主节点上启动hadoop时,我得到了以下输出。
[hduser@dellnode1 ~]$ start-dfs.sh
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hduser-namenode-dellnode1.library.out
dellnode1.library: datanode running as process 5123. Stop it first.
dellnode3.library: datanode running as process 4072. Stop it first.
dellnode2.library: datanode running as process 4670. Stop it first.
dellnode1.library: secondarynamenode running as process 5234. Stop it first.
[hduser@dellnode1 ~]$ jps
5696 Jps
5123 DataNode
5234 SecondaryNameNode
4条答案
按热度按时间bxpogfeg1#
在mac中(如果使用自制软件安装),其中3.0.0是hadoop版本。在linux中,相应地更改安装路径(只有这部分会更改)。
/usr/local/Cellar/
).更适合专业用户写这个
alias
在你生命的尽头~/.bashrc
或者~/.zshrc
(如果您是zsh用户)。只是打字hstop
每次您想要停止hadoop和所有相关进程时,都可以从命令行执行。vwoqyblh2#
今天,在执行pig脚本时,我遇到了问题中提到的相同错误:
所以,答案是:
然后键入:
这个问题会解决的。现在可以用mapreduce运行pig脚本了!
a11xaf1n3#
根据在较新版本的hardoop上运行“stop all.sh”的说法,这是不推荐的。您应该使用:
stop-dfs.sh
和stop-yarn.sh
pcww981p4#
“先停下来”。
第一个呼叫停止.sh
jps型
调用start-all.sh(或start-dfs.sh和start-mapred.sh)
键入jps(如果namenode没有出现,则键入“hadoop namenode”并检查错误)