当我尝试sbt包在我下面的代码我得到这些以下错误
1.对象apache不是软件包org的成员
1.未找到:value SparkSession
我的Spark版本:2.4.4
我的Scala版本:2.11.12
我的构建.sbt
name := "simpleApp"
version := "1.0"
scalaVersion := "2.11.12"
//libraryDependencies += "org.apache.spark" %% "spark-core" % "2.4.4"
libraryDependencies ++= {
val sparkVersion = "2.4.4"
Seq( "org.apache.spark" %% "spark-core" % sparkVersion)
}
我的Scala项目
import org.apache.spark.sql.SparkSession
object demoapp {
def main(args: Array[String]) {
val logfile = "C:/TEST/demo/hello.txt"
val spark = SparkSession.builder.appName("Simple App in Scala").getOrCreate()
val logData = spark.read.textFile(logfile).cache()
val numAs = logData.filter(line => line.contains("Washington")).count()
println(s"Lines are: $numAs")
spark.stop()
}
}
1条答案
按热度按时间oogrdqng1#
如果你想使用Spark SQL,你还需要将spark-sql模块添加到依赖项中:
另外,请注意,在更改构建定义并将更改导入intelliJ之后,必须在SBT中重新加载项目。