我已经在我的ubuntu机器上的单节点集群上运行了hadoop1.0.4。
我执行了以下步骤来下载并安装hive版本
> svn co http://svn.apache.org/repos/asf/hive/trunk hive
> cd hive
我的hadoop安装文件夹是$hadoop\u home/hive和$hadoop\u home=/usr/local/hadoop。我在.bashrc中的/home/hduser下设置了两个环境变量,这是我的hadoop用户和$java\u home。
export HADOOP_HOME=/usr/local/hadoop
export HIVE_HOME=$HADOOP_HOME/hive
export JAVA_HOME=/usr/lib/jvm/java-6-openjdk
我还在$path变量中添加了hadoop和hive的bin文件夹,如下所示
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$HIVE_HOME/bin:$PATH
但是,在从cli运行配置单元时,出现以下错误。
hduser@somnath-laptop:/usr/local/hadoop/hive$ bin/hive
Missing Hive Execution Jar: /usr/local/hadoop/hive/lib/hive-exec-*.jar
我应该下载这个jar并将其添加到/lib/中,还是需要配置一些特定于配置单元的环境变量。任何建议都会很有帮助。
11条答案
按热度按时间kq0g1dla1#
只需找到hiveexec-*.jar文件夹并创建一个指向它的符号链接。
在我的例子中,首先我使用“cd/usr/local/cellar/hive/1.2.1”进入hive文件夹
然后运行命令“ln-s libexec/lib/lib”
34gzjxbg2#
这是另一个关于2017年为我工作的帖子。
这个问题发生在我身上是因为我(一个初学者)提取hivetar文件的方式。我从us.apache.org下载了“hive-2.3.0”,并将文件解压缩到/usr/local/hive。jar应该位于/usr/local/hive/lib中,但由于某些原因,它位于/usr/local/hive**/bin/**lib中。换句话说,在/hive下有一个额外的“/bin”目录,其中包含所有本应直接位于/hive下的文件。我修复了这个问题,将额外的/bin目录重命名为“/bin2”,将/bin2中的所有文件移到主/hive目录,并删除了不必要的现在为空的/bin2目录。一旦.jar文件位于正确的目录中,运行配置单元就没有问题了!以下是我使用的命令:
tuwxkamq3#
在我的例子中,设置path变量后,简单的重新启动会有所帮助。
3gtaxfhh4#
尝试交叉检查环境变量路径,以防键入错误。
尝试重新加载 .键入以下命令
source ~/.bashrc
试着重新启动你的机器igetnqfo5#
问题是关于配置单元路径,因此您可以检查所有涉及配置单元路径的配置文件。请记住,您必须确认hadoop已经安装。
1,环境参数(/etc/profile或~/.profile)
2,$hive\u home/conf/hive-env.sh
hive是基于hadoop的,因此必须在hive-env.sh上配置hadoop的路径。
u0sqgete6#
我在2017年12月做了下面的工作,效果很好。
已将配置单元复制到hadoop\u主目录
在cygwin做了以下工作:
gopyfrb37#
tar文件apache-hive-0.13.1-src.tar.gz缺少lib文件夹您可以下载hive-0.12.0.tar.gz并将lib文件夹移动到apache-hive-0.13.1-src文件夹。现在Hive应该可以工作了。
px9o7tmv8#
只想发布我的作品(2017年)。
使用spark 2.0.2,我不得不改变我的
$HIVE_HOME
变量(在我的例子中,它构成了我只是从.bash_profile
.希望这能帮助别人。
4ktjp1zp9#
我自己解决了这个问题,但不知道到底发生了什么。
按照我在最初的问题中提到的过程,我创建了$hadoop\u home/hive,但它给了我一个缺少jar的错误。
所以,我做的是:我下载了hive-0.10.0.tar.gz并在$hadoop\u home下提取了它。所以新创建的文件夹是$hadoop\u home/hive-0.10.0。
我将$hadoop\u home/hive-0.10.0/lib下的所有jar复制到$hadoop\u home/hive/lib,然后在执行下一步时,
$hadoop\u主页/Hive>垃圾箱/Hive
成功了!请注意我的$hive\u home=$hadoop\u home/hive和$hive\u home/bin已添加到路径中。希望这对面临类似问题的人有所帮助。
vwoqyblh10#
试试这个:
deyfvvtc11#
我有同样的问题,我使用命令“source~/.bashrc”
问题解决了!