*.jar

krugob8w  于 2021-06-03  发布在  Hadoop
关注(0)|答案(11)|浏览(388)

我已经在我的ubuntu机器上的单节点集群上运行了hadoop1.0.4。
我执行了以下步骤来下载并安装hive版本

  1. > svn co http://svn.apache.org/repos/asf/hive/trunk hive
  2. > cd hive

我的hadoop安装文件夹是$hadoop\u home/hive和$hadoop\u home=/usr/local/hadoop。我在.bashrc中的/home/hduser下设置了两个环境变量,这是我的hadoop用户和$java\u home。

  1. export HADOOP_HOME=/usr/local/hadoop
  2. export HIVE_HOME=$HADOOP_HOME/hive
  3. export JAVA_HOME=/usr/lib/jvm/java-6-openjdk

我还在$path变量中添加了hadoop和hive的bin文件夹,如下所示

  1. export PATH=$PATH:$HADOOP_HOME/bin
  2. export PATH=$HIVE_HOME/bin:$PATH

但是,在从cli运行配置单元时,出现以下错误。

  1. hduser@somnath-laptop:/usr/local/hadoop/hive$ bin/hive
  2. Missing Hive Execution Jar: /usr/local/hadoop/hive/lib/hive-exec-*.jar

我应该下载这个jar并将其添加到/lib/中,还是需要配置一些特定于配置单元的环境变量。任何建议都会很有帮助。

kq0g1dla

kq0g1dla1#

只需找到hiveexec-*.jar文件夹并创建一个指向它的符号链接。
在我的例子中,首先我使用“cd/usr/local/cellar/hive/1.2.1”进入hive文件夹
然后运行命令“ln-s libexec/lib/lib”

34gzjxbg

34gzjxbg2#

这是另一个关于2017年为我工作的帖子。
这个问题发生在我身上是因为我(一个初学者)提取hivetar文件的方式。我从us.apache.org下载了“hive-2.3.0”,并将文件解压缩到/usr/local/hive。jar应该位于/usr/local/hive/lib中,但由于某些原因,它位于/usr/local/hive**/bin/**lib中。换句话说,在/hive下有一个额外的“/bin”目录,其中包含所有本应直接位于/hive下的文件。我修复了这个问题,将额外的/bin目录重命名为“/bin2”,将/bin2中的所有文件移到主/hive目录,并删除了不必要的现在为空的/bin2目录。一旦.jar文件位于正确的目录中,运行配置单元就没有问题了!以下是我使用的命令:

  1. cd /usr/local
  2. mv hive/bin hive/bin2
  3. mv hive/bin2/* hive
  4. rm -r hive/bin2
tuwxkamq

tuwxkamq3#

在我的例子中,设置path变量后,简单的重新启动会有所帮助。

3gtaxfhh

3gtaxfhh4#

尝试交叉检查环境变量路径,以防键入错误。
尝试重新加载 .键入以下命令 source ~/.bashrc 试着重新启动你的机器

igetnqfo

igetnqfo5#

问题是关于配置单元路径,因此您可以检查所有涉及配置单元路径的配置文件。请记住,您必须确认hadoop已经安装。
1,环境参数(/etc/profile或~/.profile)

  1. export HIVE_HOME=/usr/app/apache-hive-2.3.0-bin
  2. export PATH=$HIVE_HOME/bin:$PATH

2,$hive\u home/conf/hive-env.sh

  1. export JAVA_HOME= ${Your_JAVA_HOME_directory}
  2. export HADOOP_HOME= ${Your_HADOOP_HOME_directory}
  3. export HIVE_HOME= ${Your_HIVE_HOME_directory}
  4. export HIVE_CONF_DIR= ${Your_HIVE_HOME_directory}/conf

hive是基于hadoop的,因此必须在hive-env.sh上配置hadoop的路径。

u0sqgete

u0sqgete6#

我在2017年12月做了下面的工作,效果很好。
已将配置单元复制到hadoop\u主目录
在cygwin做了以下工作:

  1. export HIVE_HOME=$HADOOP_HOME/hive
  2. export PATH=$HIVE_HOME/bin:$PATH
gopyfrb3

gopyfrb37#

tar文件apache-hive-0.13.1-src.tar.gz缺少lib文件夹您可以下载hive-0.12.0.tar.gz并将lib文件夹移动到apache-hive-0.13.1-src文件夹。现在Hive应该可以工作了。

px9o7tmv

px9o7tmv8#

只想发布我的作品(2017年)。
使用spark 2.0.2,我不得不改变我的 $HIVE_HOME 变量(在我的例子中,它构成了我只是从 .bash_profile .
希望这能帮助别人。

4ktjp1zp

4ktjp1zp9#

我自己解决了这个问题,但不知道到底发生了什么。
按照我在最初的问题中提到的过程,我创建了$hadoop\u home/hive,但它给了我一个缺少jar的错误。
所以,我做的是:我下载了hive-0.10.0.tar.gz并在$hadoop\u home下提取了它。所以新创建的文件夹是$hadoop\u home/hive-0.10.0。
我将$hadoop\u home/hive-0.10.0/lib下的所有jar复制到$hadoop\u home/hive/lib,然后在执行下一步时,
$hadoop\u主页/Hive>垃圾箱/Hive
成功了!请注意我的$hive\u home=$hadoop\u home/hive和$hive\u home/bin已添加到路径中。希望这对面临类似问题的人有所帮助。

vwoqyblh

vwoqyblh10#

试试这个:

  1. export HIVE_HOME=$HADOOP_HOME/hive/build/dist
  2. export PATH=$HIVE_HOME/bin:$PATH
deyfvvtc

deyfvvtc11#

我有同样的问题,我使用命令“source~/.bashrc”
问题解决了!

相关问题