我尝试在集群服务器机器上运行hadoop。但是,问题是服务器机器使用共享目录,但文件目录实际上不在一个磁盘中。因此,我想如果我在每台机器(从机)中配置不同的datanode direcotry,我就可以运行hadoop而不会出现磁盘/存储瓶颈。
在使用“start dfs.sh”启动namenode和datanodes时,如何在每个从节点中对datanode进行不同的配置,或者如何为主节点配置安装程序以查找安装在从节点不同目录中的hadoop?
或者,对于这种环境有什么奇特的方法吗?
谢谢!
我尝试在集群服务器机器上运行hadoop。但是,问题是服务器机器使用共享目录,但文件目录实际上不在一个磁盘中。因此,我想如果我在每台机器(从机)中配置不同的datanode direcotry,我就可以运行hadoop而不会出现磁盘/存储瓶颈。
在使用“start dfs.sh”启动namenode和datanodes时,如何在每个从节点中对datanode进行不同的配置,或者如何为主节点配置安装程序以查找安装在从节点不同目录中的hadoop?
或者,对于这种环境有什么奇特的方法吗?
谢谢!
暂无答案!
目前还没有任何答案,快来回答吧!