如何查找spark安装详细信息?

9ceoxa92  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(888)

我是一个刚开始就有Spark的新手。在我们的ubuntu服务器中,我看到 APACHE-SPARK 已下载。我的问题如下
1) 我是否使用下面的正确命令来查找spark是否已安装?

spark-submit --version        #spark-submit: command not found
spark-shell --version         #spark-shell: command not found
spark-sql --version           #spark-sql: command not found
whereis spark-shell           #produces directory path of spark folder
sc.getConf.get("spark.home")  #-bash: syntax error near unexpected token `"spark.home"'

2) 如果已安装并部署,如何确定部署模式?
我发现有些事情 standalone , yarn ,和 mesos 等等,我已经在这里介绍了这个帖子,但它显示了webui。我可以知道如何在我们的服务器上找到spark的部署模式吗?
3) spark和其他正常安装的应用程序一样
我相信什么时候 spark 如果已安装,则只能根据以下任何模式进行部署: standalone , yarn , mesos 等等,我是否正确地理解spark只能部署在集群模式下,这些是不同类型的集群模式?
3) 如何访问spark ui?

I tried the below command, but it doesn't produce any output.

jps -lm | grep spark
/tmp/spark-*.pid

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题