概述
搭建Hadoop时Slave节点没出现DateNode进程的原因
正确的Hadoop下的Master、Slave节点jps后会出现
但当我关闭集群后重新用hdfs namenode -format进行文件格式后,重新启动集群,
Slave节点却jps不到DataNone
原因:hdfs强制性多次初始化数据,会导致VERSION里面的nameid,clusterID,blockpoolID变化,导致master跟slave服务器的ID无法匹配,无法正常启动DataNone。
解决方法:修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动集群后再执行jps命令可以看到datanode已正常启动。
步骤:
进入到current,找到VERSION文件,进行文件编辑
找到clusterId,复制的namenode的clusterId到出问题的datanode的clusterId,使其clusterId一致即可。
接着在Master上重新启动集群start-all.sh,这时可以通过jps可以查看各个节点所启动的进程是正确的了。
最后有事没事不要随便初始化NameNode,初始过一遍就好了,初始多遍是会导致像上面一样slave节点上DataNode不能启动,同时用完后也记得关闭集群stop-all.sh。
最后
以上就是耍酷外套为你收集整理的搭建Hadoop时Slave节点没出现DateNode进程的原因的全部内容,希望文章能够帮你解决搭建Hadoop时Slave节点没出现DateNode进程的原因所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复