我是Apache Hadoop新手,我尝试在Alpine(Docker容器)中以伪分布式模式安装Apache Hadoop 2.9.1,但在运行www.example.com时出现此错误start-dfs.sh
localhost: /usr/local/hadoop/sbin/hadoop-daemon.sh: line 131: 883 Aborted (core dumped) nohup nice -n $HADOOP_NICENESS $hdfsScript --config $HADOOP_CONF_DIR $command "$@" > "$log" 2>&1 < /dev/null
名称节点和辅助名称节点成功启动,但数据节点编号
1条答案
按热度按时间weylhg0b1#
我遇到了完全相同的问题,而且每个版本〉2. 9. 1都以Docker中的DataNode的快速核心转储结束。
来自@OneCricketeer的评论实际上把我引向了正确的方向,这本应该是一个可以接受的答案-所以这里有一个快速的提示给未来的用户:
显然,DataNode的组件不能很好地与Alpine/Musl一起工作,切换到基于Ubuntu的父映像(如8-jdk)可以解决这个问题。
下面是我目前使用的Dockerfile的链接。