如何在pyspark中设置spark.executor.plugins

mbjcgjjk  于 2021-05-27  发布在  Spark
关注(0)|答案(1)|浏览(524)

我有一个python代码,其中有一些rdd函数,我想在多个执行器中分发。
我希望能够在每个执行器上执行一些python代码(init logger方法),然后再运行稀疏的代码。我阅读并发现在创建spark会话时提供spark.executor.plugins是可能的,但是找不到任何关于如何将其与pythonsparkapi(pyspark)结合使用的文档。
非常感谢任何指导!使用pyspark 2.4.4版本

jmp7cifd

jmp7cifd1#

我想这就是你要找的…你可以用 spark.executor.plugins 功能。

  1. spark=SparkConf()
  2. .setMaster("local")
  3. .setAppName("test")
  4. .set("spark.executor.plugins", "")

附上供参考的屏幕截图:

相关问题