目录已经被hadoop锁定

nzrxty8p  于 2021-06-03  发布在  Hadoop
关注(0)|答案(1)|浏览(408)

启动hadoop时出现以下错误:
2015-09-04 08:49:05,648 error org.apache.hadoop.hdfs.server.common.storage:似乎另一个节点854@ip-1-2-3-4 已锁定存储目录:/mnt/xvdb/tmp/dfs/namesecondary java.nio.channels.overlappingfilelockexception位于org.apache.hadoop.hdfs.server.common.storage$storagedirectory.trylock(存储)。java:712)在org.apache.hadoop.hdfs.server.common.storage$storagedirectory.lock(存储。java:678)在org.apache.hadoop.hdfs.server.common.storage$storagedirectory.analyzestorage(存储)。java:499)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode$checkpointstorage.recovercreate(secondarynamenode。java:962)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.initialize(secondarynamenode)。java:243)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.(secondarynamenode。java:192)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.main(secondarynamenode。java:671) 2015-09-04 08:49:05,650 info org.apache.hadoop.hdfs.server.common.storage:无法锁定存储/mnt/xvdb/tmp/dfs/namesecondary。目录已锁定2015-09-04 08:49:05650致命org.apache.hadoop.hdfs.server.namenode.secondarynamenode:无法启动secondary namenode java.io.ioexception:无法锁定存储/mnt/xvdb/tmp/dfs/namesecondary。该目录已在org.apache.hadoop.hdfs.server.common.storage$storagedirectory.lock(storage)中锁定。java:683)在org.apache.hadoop.hdfs.server.common.storage$storagedirectory.analyzestorage(存储)。java:499)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode$checkpointstorage.recovercreate(secondarynamenode。java:962)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.initialize(secondarynamenode)。java:243)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.(secondarynamenode。java:192)在org.apache.hadoop.hdfs.server.namenode.secondarynamenode.main(secondarynamenode。java:671) 2015-09-04 08:49:05,652 info org.apache.hadoop.util.exitutil:退出,状态1 2015-09-04 08:49:05,653 info org.apache.hadoop.hdfs.server.namenode.secondarynamenode:关闭\u消息:/******关闭\u消息:关闭位于的secondarynamenodeip-@ip-1-2-3-4/@ip-1-2-3-4/
hadoop版本:2.7.1(3节点集群)
hdfs-site.xml配置文件:

<configuration>
<property>
<name>dfs.data.dir</name>
<value>/mnt/xvdb/hadoop/dfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.name.dir</name>
<value>/mnt/xvdb/hadoop/dfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>

我也尝试过格式化名称节点,但没有帮助。有人能帮我吗?

3lxsmp7m

3lxsmp7m1#

我在这里找到了解决上述问题的方法:http://misconfigurations.blogspot.in/2014/10/hadoop-initialization-failed-for-block.html
如果有别的解决办法,想看看。
p、 s:我已经删除了“dfs.datanode.data.dir”指出的目录,它已经删除了hdfs上的所有数据,但帮助我解决了这个问题。因此,您可以使用其他方法(如果有的话)来解决此问题。

相关问题