概述
第一个问题:namenode未启动, 当我执行start-all.sh命令完成时,使用jps检测当前进程,发现hadoop的5个进程中唯独少了namenode,所以访问文件系统50070也失败。
原因:因为不小心把自己配置的hadoop临时文件里的信息全删除了。那么之前namenode的格式化信息也丢失了。所以需要重新格式化文件系统。
首先,我们在core-site.xml中配置过hadoop的临时文件的存放位置:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/jzz/hadoop-2.5.0/tmp/hadoop_tmp</value>
</property>
</configuration>
格式化:hdfs namenode -format
第二个问题:datanode未启动
原因:这个是因为开机格式化文件系统后,启动使用了集群,期间又格式化过文件系统,这时候namenode的clusterID会重新生成,而datanode的clusterID 保持不变。可以修改datanode里VERSION的clusterID与namenode里VERSION的clusterID一致即可。(对应的VERSION在临时文件目录tmp/hadoop_tmp下的dfs目录下的data/current或name/current目录下)
最后
以上就是细心煎饼为你收集整理的(hadoop2.5)namenode或datanode未启动的全部内容,希望文章能够帮你解决(hadoop2.5)namenode或datanode未启动所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复