我做了以下的依赖 build.sbt
apachespark2.11的文件。
name := "Project1"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"
libraryDependencies ++= Seq(
"org.scala-lang" % "scala-compiler" % "2.11.8",
"org.scala-lang" % "scala-reflect" % "2.11.8",
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4",
"org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4"
)
但是intellij无法解析 spark-core_2.11
附属国。我试了好几次都没成功。提前谢谢。
1条答案
按热度按时间llycmphe1#
我在intellij 2016.3.2中遇到了同样的问题,但scala/spark版本几乎相同:
为了让它工作,我必须手动将spark core jar添加到我的项目库中,即:
右键单击项目->打开模块设置
在“项目设置”->“库”下,单击“+”并选择“java”选项。
浏览jar。我在我的常春藤缓存中找到了它-我想它到那里是因为我以前从sbt控制台运行过“更新”任务。