如何在现有Hadoop2.x中使用spark

68bkxrlz  于 2021-05-30  发布在  Hadoop
关注(0)|答案(1)|浏览(269)

我们已经在服务器上安装了hadoop2.5。有没有可能使用hadoop来部署spark程序?我想spark使用现有的Yarn来安排任务,并能够读写现有的hdfs。我怎样才能做到这一点?

syqv5f0l

syqv5f0l1#

您可以尝试使用可用的apachespark预构建下载https://spark.apache.org/downloads.html

如果这不起作用,那么您需要通过添加hadoop jar来构建sparkhttps://spark.apache.org/docs/latest/building-spark.html 很简单
通过在spark default config中添加配置,spark可以直接访问hdfs。检查spark中的所有配置
https://spark.apache.org/docs/latest/configuration.html
您的Spark可以运行在Yarn以及本地模型-https://spark.apache.org/docs/latest/running-on-yarn.html
您不需要在现有的hadoop设置中进行任何新的更改就可以使spark工作,您只需要配置spark中的所有内容。

相关问题