使用marathon运行spark作业

hzbexzde  于 2021-06-26  发布在  Mesos
关注(0)|答案(1)|浏览(371)

我有一份马拉松式的工作,工作内容如下:

./bin/spark-class org.apache.spark.deploy.mesos.MesosClusterDispatcher

但是,接下来我希望现在能够使用以下命令将单个spark作业作为单独的marathon作业运行:

./bin/spark-submit ....

我的问题是:如果没有安装二进制文件,如何从mesos执行器调用spark submit(注:我知道http://spark.apache.org/docs/latest/running-on-mesos.html#connecting-spark to mesos还建议在所有mesos从机上安装spark,但这是唯一的选择吗?)
非常感谢您的指导。

mrwjdhj3

mrwjdhj31#

只需运行以下命令:

/opt/spark/spark-2.1.0-bin-hadoop2.7/bin/spark-submit --class org.apache.spark.examples.SparkPi --master mesos://127.0.0.1:31258 --deploy-mode cluster --supervise --executor-memory 2G --total-executor-cores 1 /opt/spark/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 1000

相关问题