我有一个hadoop集群的64b压缩hadoop hdfs文件(fsimage、edit logs、blk*.meta文件等),我想在本地vm上读取它们。作为一种选择,我想:
备份我的datanode、namenode和secondarynamenode
格式化datanode、namenode和secondarynamenode
将文件复制到相应的位置
Map配置属性
重新启动hdfs。
这也许是最好的方法之一。请帮助我找出是否有任何替代上述方法。很抱歉,我不能分享这些数据。
我有一个hadoop集群的64b压缩hadoop hdfs文件(fsimage、edit logs、blk*.meta文件等),我想在本地vm上读取它们。作为一种选择,我想:
备份我的datanode、namenode和secondarynamenode
格式化datanode、namenode和secondarynamenode
将文件复制到相应的位置
Map配置属性
重新启动hdfs。
这也许是最好的方法之一。请帮助我找出是否有任何替代上述方法。很抱歉,我不能分享这些数据。
暂无答案!
目前还没有任何答案,快来回答吧!