我遇到了一个奇怪的问题。pentaho数据集成提供了示例作业“单词计数作业”,以便理解mapreduce作业。
我正在学习mapreduce,我真的被一个奇怪的错误弄糊涂了。
错误是:
"Caused by: java.io.IOException: Cannot initialize Cluster.
Please check your configuration for mapreduce.framework.name
and the correspond server addresses."
我已经尝试了我所有的方法来解决这个问题,从改变pentaho数据集成中的“插件属性”文件到重新安装pentaho shim,但都没有用。
根据作业的流程,文件正确地从本地(pentaho数据集成正在运行的地方)传输到hdfs服务器,但mapreduce作业启动时抛出错误。
1条答案
按热度按时间alen0pnh1#
终于破解了。这个错误是因为在core-site.xml文件中,集群的“ip地址”被我提到,其中“主机名”被集群识别。因此,由于这种模糊性,这一错误正在发生。
万岁!!