所以我一开始一直保持着 application.properties
在我运行spark submit的同一目录中的文件。
我的命令是这样的:
spark-submit --class MyPackage.MyClass
--jars s3://dir1/dep1.jar,s3://dir1/dep2.jar
--files application.properties
--conf spark.driver.extraJavaOptions=-Dconfig.file=./application.properties
--conf spark.executor.extraJavaOptions=-Dconfig.file=./application.properties
s3://dir1/my_code.jar
arg1 arg2
这一招果然奏效。
现在我想保住我的饭碗 application.properties
文件也在s3中。我编辑了 --files
标记以包含配置文件的s3路径。但它仍在收集我之前处理的文件,而不是新的s3文件。这可能和我的工作有关 --conf
旗帜。
请让我知道我需要做什么使这项工作。
目标:从s3获取并使用配置文件注意:我是在emr上这样做的,所以连接到s3不是问题。无论如何,jar只从s3加载,所以连接到s3没有问题。
暂无答案!
目前还没有任何答案,快来回答吧!