我们在spark作业上运行hive(在cdh5.16集群中),并试图设置一个可以在yarn ui中看到的作业名称。到目前为止无法设置作业名称,默认情况下,我们将名称视为spark上的配置单元(session id=)
早些时候,我们(cdh5.4集群)可以用 mapred.job.name
mapreduce作业上配置单元的属性。
有没有办法在spark jobs上为hive设置作业名称?
提前谢谢!!!
我们在spark作业上运行hive(在cdh5.16集群中),并试图设置一个可以在yarn ui中看到的作业名称。到目前为止无法设置作业名称,默认情况下,我们将名称视为spark上的配置单元(session id=)
早些时候,我们(cdh5.4集群)可以用 mapred.job.name
mapreduce作业上配置单元的属性。
有没有办法在spark jobs上为hive设置作业名称?
提前谢谢!!!
暂无答案!
目前还没有任何答案,快来回答吧!