我正在设置一个hadoop单节点环境,以便在只有4gb物理ram的硬件上进行测试,并使用hadoop2.6.0。
我只使用了为这种环境建议的基本配置。但我现在担心的是,我可能应该调整内存资源管理,以便能够运行一些map reduce示例。
我知道有几个设置需要考虑,包括java堆、map和reduce任务的内存。对于像我这样的小规模测试环境,我应该/可以为一个适度的map reduce任务设置最小、最大的容器大小到多小?
我特别指的是:
yarn.scheduler.minimum-allocation-mb
yarn.scheduler.maximum-allocation-mb
在启动dfs和启动Yarn后,机器上的自由物理量远低于1gb。
1条答案
按热度按时间ruoxqz4g1#
我经常在虚拟机上工作,在my-site.xml中有以下设置:
在mapred-site.xml中-
我发现这些设置在我的虚拟机上运行的任何具有虚拟机大小的数据卷(也就是说,不是太大!)的东西上都能很好地工作。