hadoopYarn-如何限制requestedmemory?

rhfm7lfc  于 2021-06-02  发布在  Hadoop
关注(0)|答案(1)|浏览(331)

尝试从 hadoop-mapreduce-examples-2.2.0.jar ,我得到以下异常:

org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.yarn.exceptions.InvalidResourceRequestException): Invalid resource request, requested memory < 0, or requested memory > max configured, requestedMemory=1536, maxMemory=512

不确定1536来自何处,但512是我为中的子任务设置的最大堆大小 mapred-site.xml :

<property>
  <name>mapreduce.map.memory.mb</name>
  <value>512</value>
</property>
<property>
  <name>mapreduce.map.java.opts</name>
  <value>-Xmx410m</value>
</property>
<property>
  <name>mapreduce.reduce.memory.mb</name>
  <value>512</value>
</property>
<property>
  <name>mapreduce.reduce.java.opts</name>
  <value>-Xmx410m</value>
</property>

确定map/reduce任务大小的正确方法是什么?

baubqpgj

baubqpgj1#

512是的默认值 yarn.scheduler.maximum-allocation-mbyarn-site.xml ,并且1536是 yarn.app.mapreduce.am.resource.mb 中的参数 mapred-site.xml .
确保 allocation-mb > app.mapreduce.am.resource.mb ,一切都会好起来的。

相关问题