在amazon web服务的elastic mapreduce上定义一个hdfs文件

hpxqektj  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(256)

我开始在hadoopmapreduce框架上实现kmeans算法。在这方面,我使用的是amazonweb服务提供的弹性mapreduce。我想创建一个hdfs文件来保存初始的簇坐标,并在其上存储还原器的最终结果。我完全搞糊涂了。无论如何,有没有创建或“上传”到hdfs格式的文件,以供所有的Map。
对此有何澄清?
谢谢。

nc1teljy

nc1teljy1#

最后我知道怎么做了。因此,为了将hdfs文件上传到集群中。您必须通过putty(使用安全密钥)连接到集群。
然后写下这些命令
hadoop distcp s3://buke\u name/data/filenameins3bucket hdfsfilename
with filenameins3bucket是s3 bucket中的文件名hdfsfilename是我上传文件时您想给文件命名的内容。
检查文件是否已上载hadoop fs-ls

相关问题