我已经将Spark、SBT、Scala和Git下载到我的Windows计算机上。当我尝试在我的命令提示符中运行Spark-Shell时,我得到“Failure to Find Spark Assembly JAR。您需要在运行此程序之前使用sbt\sbt程序集构建Spark。”
我尝试遵循以下指南:https://x86x64.wordpress.com/2015/04/29/installing-spark-on-windows/,但我没有Build子文件夹,所以我不确定这是否是问题所在。
任何帮助都将不胜感激。
1条答案
按热度按时间hfyxw5xn1#
这是Spark 1.3的老指南。
请使用本指南在Windows上设置Spark。
http://www.ics.uci.edu/~shantas/Install_Spark_on_Windows10.pdf
本指南使用Maven,您将使用SBT,但是您将能够使用本指南执行Spark-Shell。