我尝试使用以下命令将ncdc数据从amazons3复制到本地hadoop集群。
hadoop distcp -Dfs.s3n.awsAccessKeyId='ABC' -Dfs.s3n.awsSecretAccessKey='XYZ' s3n://hadoopbook/ncdc/all input/ncdc/all
得到的误差如下:
java.lang.IllegalArgumentException: AWS Secret Access Key must be specified as the password of a s3n URL, or by setting the fs.s3n.awsSecretAccessKey property
经历了下面的问题,但没有大的帮助。
复制本地数据时出现问题
任何关于如何解决问题的提示。详细的回答将非常感谢更好的理解。谢谢
2条答案
按热度按时间uinbv5nw1#
您需要在core-site.xml中设置aws id和密码
然后重新启动群集
sz81bmfz2#
你试过这个吗:
摘自amazons3 wiki
下面是一个将hdfs中名为0070206153839-1998 at/user/nutch的nutch段复制到名为“nutch”的s3 bucket的示例(让s3 aws\u access\u key\u id为123,s3 aws\u access\u key\u secret为456):
%${hadoop\u home}/bin/hadoop目录hdfs://domu-12-31-33-00-02-df:9001/user/nutch/0070206153839-1998 s3://123:456@nutch/
在你的情况下,应该是这样的: