频道栏目
首页 > 网络 > 云计算 > 正文

hadoop集群之Datenode无法启动解决办法

2018-06-12 11:30:18      个评论    来源:一起仰望星空  
收藏   我要投稿

hadoop集群之Datenode无法启动解决办法

我们在启动hadoop集群的时候,通过jps查看进程,发现namenode RM和Secondary NameNode都有,但datanode没有启动,然后 datanode的启动日志如下

\

看看划线部分:

2018-06-04 18:26:58,317 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/home/tobin/framework/hadoop/tmp/dfs/data/
java.io.IOException: Incompatible clusterIDs in /home/tobin/framework/hadoop/tmp/dfs/data: namenode clusterID = CID-8534d33a-ef46-4294-8c5b-1f267ca07d94; datanode clusterID = CID-233ea27a-422c-4b0a-b96f-7ef5c59a43a7
2018-06-04 18:26:58,320 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool ID needed, but service not yet registered with NN, trace:
java.lang.Exception

原因:

是多次format Namenode导致的Namenode和DataNode的ID不一致导致的。

具体原因如下:

问题因为多次对namenode进行format,每一次format主节点NameNode产生新的clusterID、namespaceID,于是导致主节点的clusterID、namespaceID与各个子节点DataNode不一致。

当format过后再启动hadoop,hadoop尝试创建新的current目录,但是由于已存在current目录,导致创建失败,最终引起DataNode节点的DataNode进程启动失败,从而引起hadoop集群完全启动失败。

因此可以通过直接删除数据节点DataNode的current文件夹,进行解决该问题。

解决办法:

删除tmp/dfs/data下的current文件夹,然后重新启动hadoop。

ok啦,哈哈哈

上一篇:docker常用命令总结
下一篇:Sqoop:Importfailed:java.lang.ClassNotFoundException:org.apache.hadoop.hive.conf.HiveConf
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站