为什么切换conda环境会消除hadoop\u conf\u dir?

rjjhvcjd  于 2021-06-02  发布在  Hadoop
关注(0)|答案(0)|浏览(293)

我有一个奇怪的环境问题。我有两个康达环境 base 以及 rnn . 当我输入时 pyspark --master yarn 当你在 base 环境下,交互式shell成功出现,我可以使用yarn web ui查看pyspark shell是否已提交给yarn。
但是,当我输入 source activate rnn 然后是 pyspark --master yarn ,我看到抛出了以下异常。
线程“main”java.lang.exception中的异常:使用主“yarn”运行时,必须在环境中设置hadoop\u conf\u dir或yarn\u conf\u dir。在org.apache.spark.deploy.sparksubmitarguments.validatesubmitarguments(sparksubmitarguments)上。scala:286)在org.apache.spark.deploy.sparksubmitarguments.validatearguments(sparksubmitarguments)上。scala:246)在org.apache.spark.deploy.sparksubmitarguments。scala:119)在org.apache.spark.deploy.sparksubmit$.main(sparksubmit。scala:129)位于org.apache.spark.deploy.sparksubmit.main(sparksubmit.scala)
如果切换回 base conda环境,并键入 printenv ,我也看不到hadoop\u conf\u dir或yarn\u conf\u dir。我不明白这些环境变量是在哪里或如何设置的,以及为什么从一个conda环境切换到另一个conda环境会导致上述异常。有什么办法解决这个问题吗?

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题