我是靠谱客的博主 飘逸荷花,最近开发中收集的这篇文章主要介绍Hive的安装,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

hive的安装依附于hadoop  首先要安装hadoop

1.导入hive压缩包  并解压缩  [分发集群]

2.更改hadoop配置文件  使其能拥有权限并连接hive

配置core-site.xml配置core-site.xml配置core-site.xml [分发集群]

<!-- 配置该atguigu(superUser)允许通过代理访问的主机节点 -->
    <property>
        <name>hadoop.proxyuser.atguigu.hosts</name>
        <value>*</value>
</property>
<!-- 配置该atguigu(superUser)允许通过代理用户所属组 -->
    <property>
        <name>hadoop.proxyuser.atguigu.groups</name>
        <value>*</value>
</property>
<!-- 配置该atguigu(superUser)允许通过代理的用户-->
    <property>
        <name>hadoop.proxyuser.atguigu.users</name>
        <value>*</value>
</property>

3.配置环境变量  vim /etc/profile.d/my_evn.sh ,并刷写 source /etc/profile  【分发集群】 增加

#HIVE_HOME
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin

注意:环境变量是在root权限下的  普通用户  无权限本权限的脚本分发 

建议移动到当前用户下借用sudo再进行分发配置

4.更改日志jar包文件  hive中负责日志的jar包会和hadoop的jar包冲突【不同版本,相同作用的jar包在使用时在底层代码会有不同,会冲突】   

改成bak文件  文字变白 表示此文件不可执行

mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

 5.初步配置完成,可以使用hive命令进行启动

 理解: 表示hive不建议mr引擎【有点慢】  建议更换引擎比如spark   建议将版本改为hive1

 

 默认使用库default

插入数据默认走mr  [比较慢]

使用存储元数据的数据库是derby  不支持并发   

 

最后

以上就是飘逸荷花为你收集整理的Hive的安装的全部内容,希望文章能够帮你解决Hive的安装所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(53)

评论列表共有 0 条评论

立即
投稿
返回
顶部