apachespark在emr 10节点集群上处理150tb的数据还没有完成

btqmn9zl  于 2021-05-29  发布在  Hadoop
关注(0)|答案(0)|浏览(148)

我有一个s3 bucket,从中获取数据并将其保存到不同emr集群上的hdfs。我从apachespark读取了这些存储在hdfs上的文件,并执行了一些连接和数据过滤,最后以csv格式将大约150tb的结果数据集保存在hdfs上。手术需要很长时间。我使用64个执行器,执行器内存为120gb,驱动程序内存为100gb。我使用databricks将数据保存在csv中。
运行spark的emr集群的其他hadoop设置是默认的。
运行spark submit时,出现以下错误:

ERROR YarnScheduler: Lost executor 5 on ip-xx-xx-xx.ec2.internal: Container marked as failed: container_14687884542720_0157_01_000006 on host: ip-xx-xx-xx.ec2.internal. Exit status: 143. Diagnostics: Container killed on request. Exit code is 143
Container exited with a non-zero exit code 143
Killed by external signal

请给我指出正确的方向,来解决这个问题

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题