我是靠谱客的博主 魁梧小笼包,最近开发中收集的这篇文章主要介绍hadoop之NameNode和SecondaryNameNode---NameNode详细故障处理NameNode故障处理,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

NameNode故障处理

NameNode故障后,可以采用如下两种方法恢复数据

将SecondaryNameNode中数据拷贝到NameNode存储数据的目录

  1. kill -9 NameNode进程
  2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
[liujh@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
  1. 拷贝SecondaryNameNode中数据到原NameNode存储数据目录
[liujh@hadoop102 dfs]$ scp -r liujh@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary/* ./name/
  1. 重新启动NameNode
[liujh@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

使用-importCheckpoint选项启动NameNode守护进程,从而将SecondaryNameNode中数据拷贝到NameNode目录中

  1. 修改hdfs-site.xml中的
<property>
 <name>dfs.namenode.checkpoint.period</name>
 <value>120</value>
</property>
<property>
 <name>dfs.namenode.name.dir</name>
 <value>/opt/module/hadoop-2.7.2/data/tmp/dfs/name</value>
</property>
  1. kill -9 NameNode进程
  2. 删除NameNode存储的数据(/opt/module/hadoop-2.7.2/data/tmp/dfs/name)
[liujh@hadoop102 hadoop-2.7.2]$ rm -rf /opt/module/hadoop-2.7.2/data/tmp/dfs/name/*
  1. 如果SecondaryNameNode不和NameNode在一个主机节点上,需要将SecondaryNameNode存储数据的目录拷贝到NameNode存储数据的平级目录,并删除in_use.lock文件
[liujh@hadoop102 dfs]$ scp -r liujh@hadoop104:/opt/module/hadoop-2.7.2/data/tmp/dfs/namesecondary ./
[liujh@hadoop102 namesecondary]$ rm -rf in_use.lock
[liujh@hadoop102 dfs]$ pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs
[liujh@hadoop102 dfs]$ ls
data  name  namesecondary
  1. 导入检查点数据(等待一会ctrl+c结束掉)
[liujh@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -importCheckpoint
  1. 启动NameNode
[liujh@hadoop102 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start namenode

关注微信公众号
简书:https://www.jianshu.com/u/0278602aea1d
CSDN:https://blog.csdn.net/u012387141

最后

以上就是魁梧小笼包为你收集整理的hadoop之NameNode和SecondaryNameNode---NameNode详细故障处理NameNode故障处理的全部内容,希望文章能够帮你解决hadoop之NameNode和SecondaryNameNode---NameNode详细故障处理NameNode故障处理所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(43)

评论列表共有 0 条评论

立即
投稿
返回
顶部