hadoop:指定hdfs的最大大小/容量

ubof19bj  于 2021-06-03  发布在  Hadoop
关注(0)|答案(2)|浏览(457)

我正在运行单节点hadoop部署。我知道我的应用程序需要多少数据,我可以设置(并重新设置)hdfs使用的最大容量吗?
我试过以下方法,但似乎无法奏效。
检查hdfs-site.xml和core-site.xml的默认值
尝试了以下操作
hadoop namenode-格式
hdfs dfsadmin-设置空间配额2g/
hdfs dfsadmin-报告#仍显示旧容量
编辑:只想添加现有的容量,我的名字节点出现在安全模式。所以我不能做像-format,-rm这样的操作,因为我可以做只读操作。我可以丢失所有数据,我只想缩小现有的hdfs卷。

j8ag8udp

j8ag8udp1#

我认为磁盘/空间配额不是用-report命令显示的。结果只是显示了hdfs文件系统在操作系统限制(所有节点加在一起)下可用的磁盘空间。
我正在使用hadoop2.3.0。
尝试在hadoop框上执行以下操作:

hdfs dfsadmin -setSpaceQuota 200g /

然后你就可以用

hdfs dfs -count -q /
9223372036854775807 9223372036854775791    214748364800    214687352772           11            5           30506298 /

如果你用

hdfs dfsadmin -clrSpaceQuota /

您将再次获得无限制(无限)的磁盘空间:

hdfs dfs -count -q /
9223372036854775807 9223372036854775791            none             inf           11            5           30506298 /

也许这就是你想看到的!?
当做
马丁

8wtpewkr

8wtpewkr2#

在运行-setquota命令时,请检查以下各项
用户不是管理员,或者目录不存在或是文件,或者目录将立即超过新配额。
如果以上都好的话
hadoop.tmp.dir的值是否为“/”???

相关问题