在scalaeclipseide上配置spark时出现的问题

ftf50wuq  于 2021-06-01  发布在  Hadoop
关注(0)|答案(0)|浏览(216)

当我在scalaeclipse中配置spark环境时。我无法使用此导入

import org.apache.spark (showing error cant find spark)

我已经尝试了多个jar和不同的组合,任何人都可以让我知道如何进行。我找不到合适的jar来装这个,因为我被困在这个jar里好几天了 org.apache.spark .
我试着从 usr/lib/spark/lib ,但不起作用。
有谁能告诉我需要导入哪些jar以及在哪里找到它们,因为我正在使用top gear hadoop cloudera环境。

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题