我有一个shell脚本,它运行spark submit命令。我想指定作业运行到的资源队列名称。
当我使用: spark-submit --queue myQueue job.py
(此处作业在“myqueue”上正确提交)
但当我使用: spark-submit job.py
还有里面 job.py
我创建了一个spark会话,如: spark=SparkSession.builder.appName(appName).config("spark.yarn.queue", "myQueue")
-在这种情况下,作业在默认队列上运行。在spark ui上检查这个正在运行的作业的配置时,它还向我显示队列名称是“myqueue”,但作业仍然只在默认队列上运行。
有人能解释一下我怎么把队列名传进来吗 sparkSession.builder
配置以使其生效。
使用pyspark 2.3版
暂无答案!
目前还没有任何答案,快来回答吧!