我的hortonworks群集上安装了spark 1.6.2和spark 2.0。
这两个版本都安装在hadoop集群中5个节点的一个节点上。
每次我开始 spark-shell
我得到:
$ spark-shell
Multiple versions of Spark are installed but SPARK_MAJOR_VERSION is not set
Spark1 will be picked by default
当我检查版本时,我得到:
scala> sc.version
res0: String = 1.6.2
如何启动其他版本(spark2.0的spark shell)?
4条答案
按热度按时间wdebmtf21#
采用这种方法:
负载Spark1.6
打字时
负载spark 2.0
bn31dyow2#
你只需要给出主要版本2或1。
huwehgph3#
b0zn9rqh4#
使用spark2 submit、pyspark2或spark2 shell