我正在尝试使用java编写mapreduce函数来计算csv文件中的单词。我能够成功地构建这个项目,并成功地创建了一个jar文件。我正在使用hadoop运行所有内容,并成功地将其安装到我的pc上,尝试将csv文件上载到hadoop服务器,但当我尝试运行此命令时:
hadoop jar C:/MRProgramsDemo.jar PackageDemo.WordCount wordCountFile MRDir1
我不断收到以下错误消息:
尝试运行我在网上找到的其他程序和其他jar文件,但没有成功。谁能不知道我做错了什么?
1条答案
按热度按时间zf2sa74q1#
两个问题。
首先,将文件放在hdfs的根目录下,而不是用户文件夹中,因此,参数必须是
/wordCountFile
第二,看起来您已经创建了一个可执行jar,因此可以从参数中删除类名