我是Hadoop的新手,我一直在遵循我在LinkedIn上找到的名为“Installation of Hadoop single node cluster and run simple applications like word count in Windows OS.“的指南。直到最后,一切都很好。然而,当我运行mapreducer.jar程序来计算单词出现次数时,我遇到了以下错误:
Exception message: '/tmp/hadoop-Arif' is not recognized as an internal or external command, operable program, or batch file.
字符串
我还确认了我可以看到输入文件的内容。这是我使用的命令:
hadoop jar "C:\hadoop-2.8.0\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.8.0.jar" wordcount /inputdir/input_file.txt /temp/output
型
我还附上了命令执行的截图。如果你能帮助我,我将非常感激。
1条答案
按热度按时间q35jwt9p1#
1.遵循官方文档并使用最新、稳定的Hadoop(3.x)
1.您需要将
hadoop.tmp.dir
配置至少修复为Windows文件路径,或者您可以在Linux VM或WSL 2或Docker中运行Hadoop,在这些情况下,您不需要解决(正式的,未记录的)Windows修改,因为Hadoop文档都假定您仅使用Linux1.当Spark、Flink、Beam等都存在的时候,没有人真的再写很多mapreduce代码了。你不需要HDFS/YARN来运行这些代码(不是说你也需要它们来运行mapreduce,但这是默认模式)