hadoop在spark中的配置等价

gojuced7  于 2021-05-27  发布在  Hadoop
关注(0)|答案(1)|浏览(475)

hadoop提供 Configured 以及 Configurable 允许类访问 Configuration 对象。除了传球,Spark还有什么相似的方法吗 SparkConf 通过构造函数?

zzlelutf

zzlelutf1#

首先,使用conf/spark-defaults.conf提供配置,例如:

spark.master            spark://5.6.7.8:7077
    spark.executor.memory   4g
    spark.eventLog.enabled  true
    spark.serializer        org.apache.spark.serializer.KryoSerializer

其次,使用spark submit传递配置参数,例如:

./bin/spark-submit --name "My app" --master local[4] --conf spark.eventLog.enabled=false
  --conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar

相关问题