为hadoop生态系统重新配置java环境变量

c8ib6hqw  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(265)

我正在尝试在我的clouderavm5.10中安装scalaide4.7,它分别预配置了jdk1.7和spark1.6版本。因此,我通过卸载cloudera提供的位于/usr/java/jdk1.7的默认jdk,在/opt/location中安装了jdkversion1.8。我在.bash\u概要文件中添加了java环境变量。我成功地安装了scalaide。但是现在hadoop的所有生态系统都指向旧的jdk1.7,我已经卸载了它,并且在运行时抛出了一个错误。有人能告诉我在哪里可以为hadoop生态系统配置java变量以使用新的1.8jdk吗?这是供参考的屏幕截图

4nkexdtk

4nkexdtk1#

步骤1:停止所有hadoop服务器步骤2:编辑bigtop utils文件。我已经添加了JDK1.8的位置。创建变量bigtop\u major=8。它选择jdk的优先顺序是6、7、8和openjdk。步骤3:保存并重新启动。

相关问题