我想把我的 Scala
笔记本环境中的内核 Apache 3.0 Spark cluster
. 我尝试了以下方法来集成 Scala
进入笔记本环境;
Jupyter Scala (Almond) Spylon Kernel
Apache Zeppelin Polynote
在每一个 Scala
我尝试使用以下脚本连接到现有群集的环境:
import org.apache.spark.sql.SparkSession
val spark = SparkSession
.builder()
.appName("Spark SQL basic example")
.master("spark:<ipaddress>:7077)
.getOrCreate()
但是当我在 localhost:8080
我没有看到任何东西在集群上运行。
我可以使用 pyspark
,但需要帮助连接 Scala
到集群。
暂无答案!
目前还没有任何答案,快来回答吧!