hadoop:共享目录中不同的datanodes配置

xxe27gdn  于 2021-06-04  发布在  Hadoop
关注(0)|答案(0)|浏览(191)

我尝试在集群服务器机器上运行hadoop。但是,问题是服务器机器使用共享目录,但文件目录实际上不在一个磁盘中。因此,我想如果我在每台机器(从机)中配置不同的datanode direcotry,我就可以运行hadoop而不会出现磁盘/存储瓶颈。
在使用“start dfs.sh”启动namenode和datanodes时,如何在每个从节点中对datanode进行不同的配置,或者如何为主节点配置安装程序以查找安装在从节点不同目录中的hadoop?
或者,对于这种环境有什么奇特的方法吗?
谢谢!

暂无答案!

目前还没有任何答案,快来回答吧!

相关问题