运行级联作业时,出现错误:
Split metadata size exceeded 10000000
我试图通过将以下内容传递给命令行来增加每个职务级别的限制
xxx.jar -D mapreduce.job.split.metainfo.maxsize=30000000
我也试过了
xxx.jar -D mapreduce.jobtracker.split.metainfo.maxsize=30000000
但这两个都不起作用,我仍然得到相同的错误,所以没有选择参数。我正在使用hadoop2.5。谁能指出我做错了什么?
1条答案
按热度按时间lrl1mhuk1#
你能试着在中设置下列属性吗
conf/mapred-site.xml
:不确定以下内容是否有用(试一试)
参考文献:https://archive.cloudera.com/cdh/3/hadoop/mapred-default.html