我创建了一个公共vpc,然后在其中添加了一堆节点,这样我就可以将它用于spark集群。不幸的是,它们都有如下分区设置:
ec2-user@sparkslave1: lsblk
/dev/xvda 100G
/dev/xvda1 5.7G /
我在这些机器上设置了一个云管理器,所有节点只剩下1g用于hdfs。如何扩展分区,使其占用全部100g?
我尝试创建了/dev/xvda2,然后创建了一个卷组,将所有的/dev/xvda*添加到其中,但是/dev/xvda1在挂载时没有添加。我不能从实时cd启动在这种情况下,它是在aws上。我也尝试过resize2fs,但是它说根分区已经占用了所有可用的块,所以不能调整它的大小。我该如何解决这个问题,以及如何在将来避免这个问题?
谢谢!
2条答案
按热度按时间3b6akqbq1#
我以前也遇到过同样的问题,但不记得解决方法了。你想跑吗
of1yzvn42#
我不认为你可以仅仅调整正在运行的根卷的大小。下面是如何增加根的大小:
创建当前根卷的快照
从该快照创建一个新卷,大小为所需的大小(100g?)
停止示例
拆下旧的小卷
附加新的更大的卷
启动示例