我在用spark结构化流媒体。还有,我和 Scala
. 我想把配置文件传给我的spark应用程序。此配置文件位于 HDFS
. 例如;
spark\u job.conf(hocon)
spark {
appName: "",
master: "",
shuffle.size: 4
etc..
}
kafkaSource {
servers: "",
topic: "",
etc..
}
redisSink {
host: "",
port: 999,
timeout: 2000,
checkpointLocation: "hdfs location",
etc..
}
如何将其传递给spark应用程序?如何读取此文件( hosted HDFS
)Spark?
1条答案
按热度按时间z6psavjg1#
您可以通过以下方式从hdfs读取hocon配置:
您还可以将namenode的uri传递给
FileSystem.get(new URI("your_uri_here"))
代码仍然会读取您的配置。