我已经安装了1.9 SBT和intellij。现在,我想在Intelliji中使用built.sbt中的以下代码配置spark 3.4.1版本和3.3.0 scala版本
的数据有什么解决办法吗??谢谢你的好意
的我期待它得到succeeed但遇到错误
umuewwlo1#
没有发布与spark-core的scala 3.3.0或任何其他版本的spark-core兼容的版本。只是换衣服
scala 3.3.0
spark-core
ThisBuild / scalaVersion := "3.3.0"
字符串对于
ThisBuild / scalaVersion := "2.13.11"
型应该能解决你的问题也可以使用scala 2.12.x您可以通过以下链接阅读有关该组合的更多信息:
scala 2.12.x
Scala 3发布后,开发人员最常问的问题之一是:“我们什么时候才能用Scala 3写Spark作业?”到目前为止,答案是:“还没有”,但在Spark 3.2.0发布后,一切都改变了,它带来了Scala 2.13的支持。Scala 3项目可以依赖于Scala 2.13库,那么我们最终可以使用Scala 3编写Spark作业吗?理论上,答案是肯定的
该存储库旨在使使用Apache Spark的项目更容易采用Scala 3
1条答案
按热度按时间umuewwlo1#
没有发布与spark-core的
scala 3.3.0
或任何其他版本的spark-core
兼容的版本。只是换衣服
字符串
对于
型
应该能解决你的问题也可以使用
scala 2.12.x
您可以通过以下链接阅读有关该组合的更多信息:
Scala 3发布后,开发人员最常问的问题之一是:“我们什么时候才能用Scala 3写Spark作业?”到目前为止,答案是:“还没有”,但在Spark 3.2.0发布后,一切都改变了,它带来了Scala 2.13的支持。Scala 3项目可以依赖于Scala 2.13库,那么我们最终可以使用Scala 3编写Spark作业吗?理论上,答案是肯定的
该存储库旨在使使用Apache Spark的项目更容易采用Scala 3