概述
1.首先安装jdk和Hadoop环境,参考Hadoop单机安装_letterss的博客-CSDN博客
2.下载Hive安装包,下载地址:https://www.apache.org/dyn/closer.cgi/hive/
将下载的安装包上传到/data/hive目录,并解压
tar -zxvf apache-hive-2.3.9-bin.tar.gz
配置hive环境
vi /etc/profile
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export HADOOP_HOME=/data/hadoop/hadoop-2.10.1
export HIVE_HOME=/data/hive/apache-hive-2.3.9-bin
export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME:$HIVE_HOME/bin:$PATH
更新环境变量
source /etc/profile
配置完成可输入hive --version 查看版本
修改hive配置文件,进去 /data/hive/apache-hive-2.3.9-bin/conf 路径下,创建hive-site.xml文件
vim hive-site.xml
<configuration>
<property>
<!-- 元数据库的链接地址 mysql -->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true&useSSL=false</value>
<description>JDBC connect string for a JDBC metastore</description>
<!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost -->
</property>
<property>
<!-- 指定mysql驱动 -->
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<!-- 指定mysql用户名 -->
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<!-- 指定mysql密码 请输入自己的MySQL连接密码 -->
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/data/hive/hivedb</value>
<description>hive default warehouse, if nessecory, change it</description>
</property>
</configuration>
将MySQL的驱动mysql-connector-java-5.1.40-bin.jar添加到hive安装目录的lib下
元数据库初始化,切换到hive的bin目录下 执行
./schematool -dbType mysql -initSchema
hive的启动,运行hive之前要确保hadoop集群启动和MySQL服务启动正常开启的情况下
由于配置过环境变量,可以直接在命令行中输入hive 本地启动命令 hive
测试hive,输入以下建表语句
show databases;
create database test_work; //新建一个测试库
use test_work;
create table test(
id int
,name string
);
insert into table test values(1,"wangsheng");
以上正常执行,表明hive已经安装和配置完成。可去hdfs图形界面上查看建的表,访问hadoopIP:50070
最后
以上就是傲娇小刺猬为你收集整理的Hive安装部署的全部内容,希望文章能够帮你解决Hive安装部署所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复