我已经能够在linux环境中配置和启动hdfs(apachehadoop)。我尝试了各种方法来使用hadoopeclipse插件为hadoop设置eclipse环境。eclipse唯一认可的插件jar是1280jira版本,其他方法甚至无法识别,比如从hadoop src构建eclipse插件等等。1280链接中的补丁jar显示“无法连接到127.0.0.1:3515eofexception”。许多博客/论坛都说修补hadoop的方法不同,使用各种工具构建等等。。等。。难道没有一个稳定的hadoop项目可以用eclipse来配置,这样开发人员就可以快速获得环境并处理各种示例了吗?我不想使用clouderavm,因为它让我无法以正常的方式理解hadoop,而且安装是一个大文件的过程。请有人帮我得到一个稳定的hadoop环境。
谢谢查克里
3条答案
按热度按时间5tmbdcev1#
hadoop安装成功了吗?在我的0.20.2hadoop安装程序中,以下步骤可以获得一个正常运行的eclipse插件(在我通过命令行安装hadoop之后):
设置eclipse,复制插件并重启;使用补丁插件(将hadoop-eclipse-plugin-0.20.3-snapshot.jar添加到本地eclipse/plugins文件夹)。
切换到map/reduce透视图。如果没有显示“Map/缩小位置”选项卡,请转到“窗口”->“显示视图”->“其他”将其激活。确保知道hdfs的正确端口(可以在hadoop安装程序的core-site.xml中找到)和mapreduce作业(可以在mapred site.xml中找到)正在运行。
eclipse插件中的“dfs位置”需要手动刷新以查看刚刚添加的新数据,因此如果右键单击并将文件上载到hdfs,请确保刷新
要在eclipse中创建新的hadoop项目,请转到new project->map/reduce project
yiytaume2#
@克劳迪娅在创建新的hadoop位置时,除了这个设置之外,还有什么与更改高级参数有关的吗?在“常规”选项卡中,端口是正确的,但仍有例外-error:call to localhost/127.0.0.1:9000连接失败异常:java.net.connectexception:连接被拒绝主节点与安装eclipse的节点相同。
mepcadol3#
关于connectexception,如果其他一切都按照claudia的指示进行了,如果您仍然在dfs位置得到这个异常,这意味着您使用的插件与您使用的hadoop版本或eclipse版本(通常是后者)都不兼容。在这种情况下,请参考这里,以便为您正在使用的eclipse版本编译一个新插件。