如果没有cygwin,如何在windows cmdline上将文件传输到hadoop fs(hdfs)上?

91zkwejq  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(318)

我对hadoop没有任何经验,但突然不得不在windows上使用spark。我的问题,在这里被问了好几次,但我从来没有得到我需要的语法,是这样的。我正在尝试传输一个简单的文件,名为: gensortText.txt 比如说在 c:\gensortText.txt 我知道你可以用 hadoop fs -copyFromLocal . 我试过这些方法: hadoop fs -copyFromLocal C:\gensortText.txt hdfs://0.0.0.0:19000 错误:绝对uri中的相对路径。 hadoop fs -copyFromLocal C:\gensortOutText.txt \tmp\hadoop-Administrator\dfs 错误:copyfromlocal:tmphadoop administratordfs':没有这样的文件或目录 以及其他一些与hdfs:使用tmp所有返回类似错误的目录。 我有hadoopc:\deploy正如hadoop2windows指南中所建议的(该指南有效,允许我运行hadoop)。我可以访问webgui和所有这些)。hadoop在上创建了我的新hdfsc:\temp` . 请有人帮我弄清楚如何把文件传送到系统里。如果可能的话,它甚至可以手动执行,但这似乎不起作用,因为当我进入“实用程序->浏览文件系统”时,它不会显示在webgui中。实际上那里什么都没有。
有人能帮忙吗。任何相关的信息我都可以提供,但我是如此新,我真的不知道什么是有用的。我想这只是我对cmdline工具的语法。有人能给我一个具体的例子,如何使用hadoop-fs copyfromlocal或其他简单的方法来做到这一点?对不起,我对这个问题一无所知,谢谢你的帮助

xxb16uws

xxb16uws1#

为了能够在windows上运行hadoop命令,您需要安装winutils并对hadoop进程可见。

相关问题