spark在gpu服务器上提交作业后挂起:info taskschedulerimpl:adding task set 0.0 with 4 tasks resource profile 0

k7fdbhmy  于 2021-07-09  发布在  Spark
关注(0)|答案(0)|浏览(178)

我使用spark和java来做一个简单的kmeans和/或线性回归计算。
提交作业后,spark挂在“adding task set 0.0 with 4 tasks resource profile 0”行上,spark ui显示没有正在运行的应用程序。我在独立模式下在gpu服务器上运行主服务器和1个工作服务器。
spark提交

  1. spark-submit \
  2. --class com.spark.DataProcessor \
  3. --jars ${SPARK_CUDF_JAR},${SPARK_RAPIDS_PLUGIN_JAR} \
  4. --conf spark.rapids.sql.incompatibleOps.enabled=true \
  5. --conf spark.executor.resource.gpu.amount=1 \
  6. --conf spark.task.resource.gpu.amount=1 \
  7. /home/centos/.m2/repository/com/JavaSpark/1.0-SNAPSHOT/JavaSpark-1.0-SNAPSHOT.jar

日志

  1. 21/03/30 04:45:43 INFO SparkContext: Created broadcast 1 from broadcast at DAGScheduler.scala:1383
  2. 21/03/30 04:45:43 INFO DAGScheduler: Submitting 4 missing tasks from ResultStage 0 (MapPartitionsRDD[7] at map at MLUtils.scala:92) (first 15 tasks are for partitions Vector(0, 1, 2, 3))
  3. 21/03/30 04:45:43 INFO TaskSchedulerImpl: Adding task set 0.0 with 4 tasks resource profile 0

规格
我用的是aws ec2 g4dn机器。

  1. GPU: TU104GL [Tesla T4]
  2. 15109MiB
  3. Driver Version: 460.32.03
  4. CUDA Version: 11.2
  5. 1 worker: 1 core, 10GB of memory.

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题