yarn spark hbase-executorlostfailure容器因超出内存限制而被yarn杀死

gcuhipw9  于 2021-06-08  发布在  Hbase
关注(0)|答案(1)|浏览(461)

我正在尝试读取spark中的一个大hbase表(大小约为100gb)。
spark版本:1.6
spark提交参数:

spark-submit --master yarn-client --num-executors 10  --executor-memory 4G 
             --executor-cores 4 
             --conf spark.yarn.executor.memoryOverhead=2048

错误:executorlostfailure原因:容器因超出限制而被Yarn杀死。4.5gb 3gb物理内存使用限制。考虑将spark.yarn.executor.memoryoverhead提升。
我试过设置 spark.yarn.executor.memoryOverhead100000 . 仍然有类似的错误。
我不明白,如果内存不足或者是Yarn造成的问题,为什么spark不会溢出到磁盘上。

mqxuamgl

mqxuamgl1#

请分享你的代码如何尝试阅读。以及您的集群体系结构
集装箱因超限而被Yarn杀死。4.5gb 3gb物理内存使用限制
尝试

spark-submit 
--master yarn-client 
--num-executors 4  
--executor-memory 100G
--executor-cores 4 
--conf spark.yarn.executor.memoryOverhead=20480

如果你有128克
情况很清楚,你的内存用完了,试着用一种磁盘友好的方式重写你的代码。

相关问题