通过spark获取hdp版本

ifsvaxew  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(372)

我们安装了新的spark版本,因此所有文件夹的名称都类似于:

  1. ls /etc/hadoop/
  2. 2.6.4.0-91 conf conf.backup

来自 spark-submit 我们得到

  1. spark-submit --version
  2. Welcome to
  3. ____ __
  4. / __/__ ___ _____/ /__
  5. _\ \/ _ \/ _ `/ __/ '_/
  6. /___/ .__/\_,_/_/ /_/\_\ version 2.2.0.2.6.4.0-91
  7. /_/

我需要的是确定spark版本-2.6.4.0-91。我们可以做到:

  1. ls /etc/hadoop/ | grep [0-9]
  2. 2.6.4.0-91

但是这种方法不太好(因为可能有其他带有数字的文件夹名,等等)
spark-submit --version 我们有

  1. version 2.2.0.2.6.4.0-91

而我们只需要版本-2.6.4.0-91(没有2.2.0)
任何IDE如何获得版本-没有(2.2.0)从 spark-submit --version ?

ffscu2ro

ffscu2ro1#

因为hadoop安装在linux机器上,
作为:

  1. rpm -qa |grep hadoop | grep client
  2. hadoop_2_6_4_0_91-client-2.7.3.2.6.4.0-91.x86_64

然后我可以使用hdp select命令来获得所需的hdp版本

  1. hdp-select | grep hadoop-client | awk '{print $3}'
  2. 2.6.4.0-91

或:

  1. hdp-select | grep hadoop-client
  2. hadoop-client - 2.6.4.0-91

相关问题