我正在运行单节点hadoop部署。我知道我的应用程序需要多少数据,我可以设置(并重新设置)hdfs使用的最大容量吗?
我试过以下方法,但似乎无法奏效。
检查hdfs-site.xml和core-site.xml的默认值
尝试了以下操作
hadoop namenode-格式
hdfs dfsadmin-设置空间配额2g/
hdfs dfsadmin-报告#仍显示旧容量
编辑:只想添加现有的容量,我的名字节点出现在安全模式。所以我不能做像-format,-rm这样的操作,因为我可以做只读操作。我可以丢失所有数据,我只想缩小现有的hdfs卷。
2条答案
按热度按时间j8ag8udp1#
我认为磁盘/空间配额不是用-report命令显示的。结果只是显示了hdfs文件系统在操作系统限制(所有节点加在一起)下可用的磁盘空间。
我正在使用hadoop2.3.0。
尝试在hadoop框上执行以下操作:
然后你就可以用
如果你用
您将再次获得无限制(无限)的磁盘空间:
也许这就是你想看到的!?
当做
马丁
8wtpewkr2#
在运行-setquota命令时,请检查以下各项
用户不是管理员,或者目录不存在或是文件,或者目录将立即超过新配额。
如果以上都好的话
hadoop.tmp.dir的值是否为“/”???