频道栏目
首页 > 资讯 > 云计算 > 正文

hadoop启动start-all.sh,slave节点没有datanode的问题解决办法

17-11-15        来源:[db:作者]  
收藏   我要投稿

启动master节点:start-all.sh

如果安装没问题jsp进程后出现:

master有四个进程:Jps、NameNode、ResourceManager、SecondaryNameNode

slave节点进程有:Jps、DataNode、NodeManager

但是我们频繁的修改配置文件执行:hdfs namenode -format,在slave节点就不会出现DataNode进程,是由于/dfs/name/current文件下的VERSION中的namespaceId不一致造成的。

解决办法:

执行stop-all.sh , 将namespaceId改成与master节点一致。或者删除配置的临时文件,日志文件等文件,然后重新格式化:

hdfs namenode -format

启动hadoop:

start-all.sh
再次jsp就可以看到DataNode进程!

浏览器输入:http://IP地址:50070就可以看到namenode

相关TAG标签
上一篇:CDH添加Hive服务及Hive基础
下一篇:数据库分库分表之分库策略、分库分表之后的问题
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站