我是靠谱客的博主 健忘篮球,最近开发中收集的这篇文章主要介绍org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

在做spark连接Hbase的时候,总会蹦出一些问题。总结起来就是各种类的找不到。


如:org/apache/hadoop/hbase/CompatibilityFactory没有找到类,

  


E      xception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/client/Scan

如此等等。


这些问题的核心还是没有正确加载Hbase所需要的库。


而Hbase中的一些库存在的会与spark中有一些版本区别,因此可以通过测试来进行添加。


正常需要引用的包如下:

<dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.10</artifactId>
            <version>1.4.1</version>
            <scope>provided</scope>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-common</artifactId>
            <version>1.1.2</version>
        </dependency>

        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-client</artifactId>
            <version>1.1.2</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hbase</groupId>
            <artifactId>hbase-server</artifactId>
            <version>1.1.2</version>
        </dependency>
    </dependencies>

除此之外,会需要hbase-hadoop-compact.jar等几个库,把这些库加载后,就不会出现这样的错误


最后

以上就是健忘篮球为你收集整理的org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法的全部内容,希望文章能够帮你解决org/apache/hadoop/hbase/CompatibilityFactory(scan)没有找到类的解决办法所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(48)

评论列表共有 0 条评论

立即
投稿
返回
顶部