intellij idea 2016.2.4无法解析symbol spark\ 2.11

j8yoct9x  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(408)

我做了以下的依赖 build.sbt apachespark2.11的文件。

name := "Project1"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.0.1"

libraryDependencies ++= Seq(
 "org.scala-lang" % "scala-compiler" % "2.11.8",
"org.scala-lang" % "scala-reflect" % "2.11.8",
"org.scala-lang.modules" % "scala-parser-combinators_2.11" % "1.0.4",
  "org.scala-lang.modules" % "scala-xml_2.11" % "1.0.4"
)

但是intellij无法解析 spark-core_2.11 附属国。我试了好几次都没成功。提前谢谢。

llycmphe

llycmphe1#

我在intellij 2016.3.2中遇到了同样的问题,但scala/spark版本几乎相同:

name := "some-project"

version := "1.0"

scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"

为了让它工作,我必须手动将spark core jar添加到我的项目库中,即:
右键单击项目->打开模块设置
在“项目设置”->“库”下,单击“+”并选择“java”选项。
浏览jar。我在我的常春藤缓存中找到了它-我想它到那里是因为我以前从sbt控制台运行过“更新”任务。

相关问题