在aws ec2上扩展根分区

nzk0hqpo  于 2021-05-29  发布在  Hadoop
关注(0)|答案(2)|浏览(495)

我创建了一个公共vpc,然后在其中添加了一堆节点,这样我就可以将它用于spark集群。不幸的是,它们都有如下分区设置:

ec2-user@sparkslave1: lsblk
/dev/xvda 100G
/dev/xvda1 5.7G /

我在这些机器上设置了一个云管理器,所有节点只剩下1g用于hdfs。如何扩展分区,使其占用全部100g?
我尝试创建了/dev/xvda2,然后创建了一个卷组,将所有的/dev/xvda*添加到其中,但是/dev/xvda1在挂载时没有添加。我不能从实时cd启动在这种情况下,它是在aws上。我也尝试过resize2fs,但是它说根分区已经占用了所有可用的块,所以不能调整它的大小。我该如何解决这个问题,以及如何在将来避免这个问题?
谢谢!

3b6akqbq

3b6akqbq1#

我以前也遇到过同样的问题,但不记得解决方法了。你想跑吗

e2resize /dev/xvda1
  • 当您使用ext3时,这通常是默认值。e2resize命令将“增长”ext3文件系统以使用剩余的可用空间。
of1yzvn4

of1yzvn42#

我不认为你可以仅仅调整正在运行的根卷的大小。下面是如何增加根的大小:
创建当前根卷的快照
从该快照创建一个新卷,大小为所需的大小(100g?)
停止示例
拆下旧的小卷
附加新的更大的卷
启动示例

相关问题