jupyter笔记本连接到ApacheSpark3.0

avkwfej4  于 2021-05-27  发布在  Spark
关注(0)|答案(0)|浏览(285)

我想把我的 Scala 笔记本环境中的内核 Apache 3.0 Spark cluster . 我尝试了以下方法来集成 Scala 进入笔记本环境;
Jupyter Scala (Almond) Spylon Kernel Apache Zeppelin Polynote 在每一个 Scala 我尝试使用以下脚本连接到现有群集的环境:

import org.apache.spark.sql.SparkSession

val spark = SparkSession
  .builder()
  .appName("Spark SQL basic example")
  .master("spark:<ipaddress>:7077)
  .getOrCreate()

但是当我在 localhost:8080 我没有看到任何东西在集群上运行。
我可以使用 pyspark ,但需要帮助连接 Scala 到集群。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题