我是靠谱客的博主 健忘篮球,最近开发中收集的这篇文章主要介绍org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
在做spark连接Hbase的时候,总会蹦出一些问题。总结起来就是各种类的找不到。
如:org/apache/hadoop/hbase/CompatibilityFactory没有找到类,
E xception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/client/Scan
如此等等。
这些问题的核心还是没有正确加载Hbase所需要的库。
而Hbase中的一些库存在的会与spark中有一些版本区别,因此可以通过测试来进行添加。
正常需要引用的包如下:
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-common</artifactId>
<version>1.1.2</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-client</artifactId>
<version>1.1.2</version>
</dependency>
<dependency>
<groupId>org.apache.hbase</groupId>
<artifactId>hbase-server</artifactId>
<version>1.1.2</version>
</dependency>
</dependencies>
除此之外,会需要hbase-hadoop-compact.jar等几个库,把这些库加载后,就不会出现这样的错误
最后
以上就是健忘篮球为你收集整理的org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法的全部内容,希望文章能够帮你解决org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复