关键:hdfs hawq-迁移到新硬件

bnl4lu3b  于 2021-05-29  发布在  Hadoop
关注(0)|答案(1)|浏览(380)

我们在rackspace上安装了phd3.0hadoop集群5节点版,使用ambari。我们必须迁移到google云(gcp)。
但不知道如何进行以下步骤
问题1:如何将数据、元数据配置从旧机器迁移到新机器旧机器版本是cantos 6.5到目标机器版本centos 6.5)
问题2:要备份哪些组件和文件夹?命令是什么?
问题3:如何备份nameode和datanodes?
问题4:我们是否也需要备份ambari数据库?
如果您能帮上忙,我们将不胜感激?

v9tzhpje

v9tzhpje1#

我个人更喜欢在gcp中配置hadoop集群,并使用distcp将数据移动到新集群。对于hawq托管表,将数据移动到hdfs,然后执行distcp。在aws上,我有时会将数据移到s3并导入hadoop。

相关问题