我尝试在单节点集群上安装hadoop(我自己的labtop ubuntu 12.04)。我按照这个教程一行一行地检查了两次。http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/
一切似乎都是对的。我设置了所有的core-site.xml、mapred-site.xml、hdfs-site.xml。
在hduser su中运行以下命令时:
hduser@maziyar-Lenovo-IdeaPad-U300s:~$ /usr/local/hadoop/usr/sbin/start-all.sh
我得到以下错误:
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-namenode-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/masters: No such file or directory
starting jobtracker, logging to /usr/local/hadoop/usr/libexec/../logs/hadoop-hduser-jobtracker-maziyar-Lenovo-IdeaPad-U300s.out
cat: /usr/local/hadoop/usr/libexec/../etc/hadoop/slaves: No such file or directory
我将export hadoop\u home\u warn\u suppress=“true”添加到hadoop-env.sh中,仍然出现相同的错误。
在文件/home/hduser/.bashrc中,我猜我的错误来自:
# Set Hadoop-related environment variables
export HADOOP_HOME=/usr/local/hadoop
# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/jdk-7u10-linuxi586/usr/java/jdk1.7.0_10
# Some convenient aliases and functions for running Hadoop-related commands
unalias fs &> /dev/null
alias fs="hadoop fs"
unalias hls &> /dev/null
alias hls="fs -ls"
# If you have LZO compression enabled in your Hadoop cluster and
# compress job outputs with LZOP (not covered in this tutorial):
# Conveniently inspect an LZOP compressed file from the command
# line; run via:
#
# $ lzohead /hdfs/path/to/lzop/compressed/file.lzo
#
# Requires installed 'lzop' command.
#
lzohead () {
hadoop fs -cat $1 | lzop -dc | head -1000 | less
}
# Add Hadoop bin/ directory to PATH
export PATH=$PATH:$HADOOP_HOME/usr/sbin
我添加了/usr/sbin作为bin目录,因为那里有start-all.sh和命令。
我在bashrc文件中也尝试了“hadoop\u prefix”而不是“hadoop\u home”,但仍然是相同的错误。
我的hadoop目录里有这个文件夹,
maziyar@maziyar-Lenovo-IdeaPad-U300s:/usr/local/hadoop$ ls -lha
total 20K
drwxr-xr-x 5 hduser hadoop 4.0K May 30 15:25 .
drwxr-xr-x 12 root root 4.0K May 30 15:25 ..
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 etc
drwxr-xr-x 12 hduser hadoop 4.0K Jun 4 21:29 usr
drwxr-xr-x 4 hduser hadoop 4.0K May 30 15:25 var
上周我下载了apachehadoop的最新版本:hadoop-1.1.2-1.i386.rpm
5条答案
按热度按时间pepwfjgg1#
我试着设置
export HADOOP_HOME_WARN_SUPPRESS="TRUE"
在我的conf/hadoop-env.sh
文件和警告消失了。尽管如此,我仍然不确定为什么这个警告会摆在首位。50pmv0ei2#
不推荐的错误意味着您正在使用的某个特定版本被认为是不重要的,或者它将在网站上阅读后立即停止支持。
我的意思是说您已经在hadoop中安装了openjdk。我所做的不是安装openjdk而是安装oraclejdk。也许你应该试试。
让我知道这是否有用。
当做。
nhhxz33t3#
您的bash会话可能仍然有
HADOOP_HOME
变量已定义。尝试echo $HADOOP_HOME
看看有没有价值。如果你得到了
HADOOP_HOME
这意味着shell从一些配置文件中获取它,检查那些文件(~/.bashrc
,~/.profile
,/etc/profile/
,/etc/bash.bashrc
,然后移除导出的HADOOP_HOME
变量。设置后打开新会话
HADOOP_PREFIX
环境变量而不是HADOOP_HOME
在~/.bashrc
你确定吗$HADOOP_HOME
没有在任何配置文件中导出,并且您不应该看到该警告消息。jc3wubiy4#
$HADOOP_HOME
是一条警告消息。今天我在ubuntu上安装了micheal网站指令,效果很好。kzipqqlq5#
更换
HADOOP_HOME
由HADOOP_PREFIX
在~/.bashrc
帮我解决这个问题。进行此更改后是否尝试注销当前会话并重试?对bash概要文件所做的更改将在您再次登录shell时生效。