在aws中只有两个主节点在kubernetes集群中运行,而kops在其中

uyhoqukh  于 2021-06-14  发布在  Cassandra
关注(0)|答案(1)|浏览(325)

我正在尝试使用kops在aws中设置kubernetes集群。我配置了3个主节点和6个节点。但是在启动集群之后,只有两个主节点启动。
我正在使用 .k8s.local dns而不是购买的dns。下面是我用来创建集群的脚本。

kops create cluster \
--cloud=aws \
--name=kops-cassandra-cluster-01.k8s.local \
--zones=ap-south-1a,ap-south-1b,ap-south-1c \
--master-size="t2.small" \
--master-count 3 \
--master-zones=ap-south-1a,ap-south-1b,ap-south-1c \
--node-size="t2.small" \
--ssh-public-key="kops-cassandra-cluster-01.pub" \
--state=s3://kops-cassandra-cluster-01 \
--node-count=6

执行后 kops update cluster --name=kops-cassandra-cluster-01.k8s.local --state=s3://kops-cassandra-cluster-01 --yes 只有两个主节点可用,而不是3个。 kubectl get nodes 显示:

NAME                                           STATUS   ROLES    AGE   VERSION
ip-172-20-44-37.ap-south-1.compute.internal    Ready    master   18m   v1.12.8
ip-172-20-52-78.ap-south-1.compute.internal    Ready    node     18m   v1.12.8
ip-172-20-60-234.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-61-141.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-66-215.ap-south-1.compute.internal   Ready    node     18m   v1.12.8
ip-172-20-69-124.ap-south-1.compute.internal   Ready    master   18m   v1.12.8
ip-172-20-85-58.ap-south-1.compute.internal    Ready    node     18m   v1.12.8
ip-172-20-90-119.ap-south-1.compute.internal   Ready    node     18m   v1.12.8

我是Kubernetes的新手。我错过什么了吗?

jyztefdp

jyztefdp1#

在做了大量的研究之后,我知道这是因为t2。小型示例类型在ap-south-1c中不可用。将分区修改为eu-west-1a、eu-west-1b、eu-west-1c后,我可以看到3个主节点和6个工作节点。谢谢@mchawre的帮助。

相关问题