我正在运行一个相对较大的mr作业,使用amazon弹性map reduce。
我在小数据集上运行了很多次,没有问题。
但是,当尝试在大型数据集上运行它时,我会遇到以下异常:
错误:com.amazonaws.amazonclientexception:无法验证数据下载的完整性。客户端计算的内容长度与从amazon s3接收的内容长度不匹配。数据可能已损坏。
我在谷歌上搜索了一下,得到的唯一建议是设置以下内容:
system.setproperty(“com.amazonaws.services.s3.disablegetobjectmd5validation”,“true”);
那根本没用。
我使用的是复制3,11 m1大型数据节点和1 m1中型主节点。
对此问题有任何解决方法或已知的修复方法吗?
1条答案
按热度按时间v8wbuo2f1#
显然,这是一个已知的错误。亚马逊的一位员工告诉我。
在s3对象大于2gb的大型数据集上运行时会发生这种情况。
我通过迁移到hadoop2.4.0和ami3.1.0来解决这个问题。