杀死一个单一的Spark任务

v1uwarro  于 2021-06-26  发布在  Mesos
关注(0)|答案(1)|浏览(484)

我有一个很长的Spark工作,其中有一小部分任务,目前暂停。有没有办法从驱动程序节点中终止那些暂停的任务?
出于权限原因,我可以登录,但不能终止从属节点上的作业,因此我正在寻找一种方法,仅从驱动程序节点执行此操作。请注意,我不想扼杀整个spark工作-只是一个或两个暂停的任务。
如果有帮助的话,我使用的是mesos,并且可以访问webui,但是它不包含终止任务的选项。

mqxuamgl

mqxuamgl1#

不,不是真的。
您不能手动终止单个spark任务,但是可以使用spark推测自动确定哪些任务花费的时间过长,并主动重新启动它们。
如果你想那样做的话,那就开始吧 spark.speculation 如果你敢的话 spark.speculation.interval , spark.speculation.multiplier , spark.speculation.quantile 配置选项。
相关文件:http://spark.apache.org/docs/latest/configuration.html#viewing-Spark特性
相关问题:如何处理运行时间太长的任务(与其他工作相比)在Yarn客户端?

相关问题