我是靠谱客的博主 淡然方盒,最近开发中收集的这篇文章主要介绍两个hadoop的问题解决,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times

出现这个问题多是由于namenode和datanode的数据不一致的问题。最近做了几个集群,尝试了几种可能出现此问题的情况,大概是因为格式化或者迁移hdfs造成的。解决办法比较简单:

${hadoop.tmp.dir}/dfs/name/current下的VERSION文件内的namespaceID=13837527要与${hadoop.tmp.dir}/dfs/data/current下的VERSION文件内容一致.停掉hbase和hadoop之后再改这个。发现文件夹时空的话,可以格式化一下hdfs就出现应有的目录文件格式了。


java.lang.RuntimeException: Error in configuring object
	at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
	at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
	at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
	at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:485)
	at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:420)
	at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
	at java.security.AccessController.doPrivileged(Native Method)
	at javax.security.auth.Subject.doAs(Subject.java:415)
	at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1121)
	at org.apache.hadoop.mapred.Child.main(Child.java:249)
Caused by: java.lang.reflect.InvocationTargetException
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:606)
	at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:88)
	... 9 more
Caused by: java.lang.NoClassDefFoundError: org/apache/zookeeper/KeeperException
	at org.apache.hadoop.hbase.client.HConnectionManager.getConnection(HConnectionManager.java:185)
	at org.apache.hadoop.hbase.client.HTable.<init>(HTable.java:154)
	at org.apache.hadoop.hbase.client.HTable.<init>(HTable.java:132)
	at com.successfactors.perflog.hadoop.hbase.HBaseUtils.getHBTable(Unknown Source)
	at com.successfactors.perflog.hadoop.mapred.core.ParseRecordToHB$RecordReducer.configure(Unknown Source)
	... 14 more
Caused by: java.lang.ClassNotFoundException: org.apache.zookeeper.KeeperException
	at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
	at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
	at java.security.AccessController.doPrivileged(Native Method)
	at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
	at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
	at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
	... 19 more



这个问题倒是困扰好久的,试过重置hdfs的路径(hadoop.tmp.dir)、试过格式化hdfs(hadoop namenode -format)、试过增大系统并发处理文件的数量(dfs.datanode.max.xcievers)、重新编译过要执行的MR任务都没有解决。还是要认真看log啊。

网上出现着个问题的情况千奇百怪,认真看Caused by先!

第一个:

Caused by: java.lang.reflect.InvocationTargetException
这个情况可能在很多java的环境下出现,先不考虑;

第二个:

Caused by: java.lang.NoClassDefFoundError: org/apache/zookeeper/KeeperException
有人反应这个是因为hadoop-env.sh下没有引入jar包导致的,可是我明明标记了啊!
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HBASE_HOME/hbase-0.94.8-security.jar:$HBASE_HOME/lib/zookeeper-3.4.5.jar:$HBASE_HOME/lib/protobuf-java-2.4.0a.jar:$HBASE_HOME/lib/guava-11.0.2.jar:$HBASE_HOME/conf
抱着试试看的心情,添加一个lib的路径,结果成功了!可是之前zookeeper的路径没写错啊!用网上的话说真是“莫名其妙地找不到jar包”
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HBASE_HOME/hbase-0.94.8-security.jar:$HBASE_HOME/lib/zookeeper-3.4.5.jar:$HBASE_HOME/lib/protobuf-java-2.4.0a.jar:$HBASE_HOME/lib/guava-11.0.2.jar:$HBASE_HOME/lib:$HBASE_HOME/conf

总之认真看错误报告再分析错误就是了

http://hadoop-server-01:50030/


最后

以上就是淡然方盒为你收集整理的两个hadoop的问题解决的全部内容,希望文章能够帮你解决两个hadoop的问题解决所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(38)

评论列表共有 0 条评论

立即
投稿
返回
顶部