概述
https://blog.csdn.net/u012500868/article/details/78164572
https://blog.csdn.net/hzdxw/article/details/51960211
解决办法一:
根据日志中的路径,cd /home/storm/hadoop/tmp/dfs,能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID。 让两个保持一致,然后重启,启动后执行jps,查看进程: 20131 SecondaryNameNode 20449 NodeManager 19776 NameNode 21123 Jps 19918 DataNode 20305 ResourceManager
解决办法二:
直接删除掉dfs文件夹中name和data文件夹里的所有内容,重启。
出现该问题的原因:
在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
--------------------- 本文来自 GXU-数据与网络实验室 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/u012500868/article/details/78164572?utm_source=copy
hadoop namenode -format 不能随便执行
最后
以上就是深情飞鸟为你收集整理的hadoop起动后没有datanode的问题的全部内容,希望文章能够帮你解决hadoop起动后没有datanode的问题所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复