Apache Spark Zeppelin错误:解释器进程未运行

j91ykkif  于 12个月前  发布在  Apache
关注(0)|答案(1)|浏览(269)

我在一个docker容器中运行Zeppeling,我的电脑上也安装了Spark,Scala和JDK。我在Zeppelin中运行这条简单的代码时遇到了这个错误:

%spark
spark.sparkContext.getConf.toDebugString

字符串
我得到了这个错误:
org.apache.zeppelin. interpreter.InterpreterException:java.io.IOException:无法启动解释器进程:/opt/zeppelin/bin/interpreter.sh:line 294:/sources/spark-3.0.1/bin/spark-submit:没有这样的文件或目录
如果我从命令行执行“/Spark arios/diegomartincastronuovo/sources/spark-3.0.1/bin/spark-submit”,那么spark-submit运行没有问题,所以$SPARK_HOME似乎没问题。
问题是相同的任何一行代码,无论我尝试你执行。
我试了所有的方法,但我不能解决它。
感谢您发送编修。
我试着在zeppeling解释器配置中更改$PARK_HOME,我也试过我的解释器配置,但我不知道问题在哪里。

snvhrwxg

snvhrwxg1#

您的Zeppelin笔记本可能配置为在HDFS中查找相对文件路径。
因此,您可能需要提到您正在处理文件系统。

"file:///Usuarios/diegomartincastronuovo/sources/spark-3.0.1/bin/spark-submit"

字符串

相关问题