我是靠谱客的博主 深情飞鸟,最近开发中收集的这篇文章主要介绍hadoop起动后没有datanode的问题,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

https://blog.csdn.net/u012500868/article/details/78164572

https://blog.csdn.net/hzdxw/article/details/51960211

解决办法一:

根据日志中的路径,cd /home/storm/hadoop/tmp/dfs,能看到 data和name两个文件夹, 将name/current下的VERSION中的clusterID复制到data/current下的VERSION中,覆盖掉原来的clusterID。 让两个保持一致,然后重启,启动后执行jps,查看进程: 20131 SecondaryNameNode 20449 NodeManager 19776 NameNode 21123 Jps 19918 DataNode 20305 ResourceManager

解决办法二:

直接删除掉dfs文件夹中name和data文件夹里的所有内容,重启。

出现该问题的原因:

在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

--------------------- 本文来自 GXU-数据与网络实验室 的CSDN 博客 ,全文地址请点击:https://blog.csdn.net/u012500868/article/details/78164572?utm_source=copy

 

hadoop namenode -format     不能随便执行

 

最后

以上就是深情飞鸟为你收集整理的hadoop起动后没有datanode的问题的全部内容,希望文章能够帮你解决hadoop起动后没有datanode的问题所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(30)

评论列表共有 0 条评论

立即
投稿
返回
顶部