如何安装apachespark并使其与kafka一起运行?

8dtrkrch  于 2021-06-08  发布在  Kafka
关注(0)|答案(1)|浏览(320)

我对hadoop和apachespark还很陌生。我是一个新手,正在尝试。现在,我想试试我的apachespark。为了做到这一点,我假设我必须在我的机器上安装一个名为apachespark的软件。
我试图创建一个本地机器使用虚拟机,但我在这一点上迷失了方向。有没有资源可以帮助我在同一台机器上配置和安装spark和kafka?

sdnqo3pr

sdnqo3pr1#

幸运的是,chrisfregley(来自ibmsparktc)有一个项目,其中包含了所有这些东西的docker映像(您可以在https://github.com/fluxcapacitor/pipeline/wiki ). 对于“真正的”生产部署,您可能想看看如何在yarn上部署spark或类似的东西—其部署选项在http://spark.apache.org/docs/latest/cluster-overview.html 与Kafka的整合在Kafka整合指南中有详细介绍http://spark.apache.org/docs/latest/streaming-kafka-integration.html . 欢迎来到精彩的Spark我希望这些能帮助你开始:)

相关问题