我可以将gcpdataproc集群从标准(1个主进程,n个工作进程)更改为高可用性吗?

kx7yvsdv  于 2021-05-29  发布在  Hadoop
关注(0)|答案(4)|浏览(330)

我已经创建了一个gcpdataproc集群,使用标准(1个主节点,n个工作节点)。现在我想把它升级到高可用性(3个主控,n个工人)-这可能吗?
我试过gcp,gcp alpha和gcp beta命令。例如,此处记录的gcp beta:https://cloud.google.com/sdk/gcloud/reference/beta/dataproc/clusters/update.
它可以选择扩展工作节点,但不能选择从标准模式切换到高可用性模式。我说的对吗?

rta7y2nd

rta7y2nd1#

是的,您总是可以这样做,要更改主节点的机器类型,您首先需要停止主vm示例,然后您可以更改机器类型,即使可以更改工作节点的机器类型,我们只需要停止机器并编辑机器配置。

qqrboqgw

qqrboqgw2#

您可以通过进入集群下的vm instances部分来升级主节点,停止主vm并将配置编辑为

6tqwzwtp

6tqwzwtp3#

答案是-不。一旦ha集群被创建,它就不能被降级,反之亦然。您可以添加工作节点,但是不能更改主节点。

odopli94

odopli944#

您可以始终升级主节点计算机类型,还可以添加更多工作节点。虽然这会提高集群作业性能,但与ha无关。

相关问题