上传hive架包,然后解压:
1tar -zxf apache-hive-2.3.3-bin.tar.gz hive
重命名
1mv apache-hive-2.3.3-bin hive
将mysql的驱动包加入hive的lib文件下面
进入hive目录下的conf
1cd /home/hive/conf/
把初始化的文件 复制一份出来 并且改名
1
2
3
4
5cp hive-env.sh.template hive-env.sh cp hive-default.xml.template hive-site.xml cp hive-log4j2.properties.template hive-log4j2.properties cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
修改hive-env.sh
1
2
3
4
5
6
7#jdk export JAVA_HOME=/home/jdk #hadoop export HADOOP_HOME=/home/hadoop #hive export HIVE_HOME=/home/hive
在hdfs 中创建下面的目录 ,并且授权
1
2
3
4
5
6
7hdfs dfs -mkdir -p /user/hive/warehouse hdfs dfs -mkdir -p /user/hive/tmp hdfs dfs -mkdir -p /user/hive/log hdfs dfs -chmod -R 777 /user/hive/warehouse hdfs dfs -chmod -R 777 /user/hive/tmp hdfs dfs -chmod -R 777 /user/hive/log
修改hive-site.xml
1vi hive-site.xml
将 hive-site.xml 文件中以下几个配置项的值设置成上一步中创建的几个路径。
<property>
<name>hive.exec.scratchdir</name>
<value>/user/hive/tmp</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<property>
<name>hive.querylog.location</name>
<value>/user/hive/log</value>
</property>
1
2
3
4
5
6
7
8
9
10
11
12
13<property> <name>hive.exec.scratchdir</name> <value>/user/hive/tmp</value> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> </property> <property> <name>hive.querylog.location</name> <value>/user/hive/log</value> </property>
创建tmp文件,然后在配置文件 hive-site.xml 里面
把{system:java.io.tmpdir} 改成 /home/hive/tmp/
把 {system:user.name} 改成 {user.name}
1mkdir /home/hive/tmp
javax.jdo.option.ConnectionUserName:你数据库的名称
javax.jdo.option.ConnectionPassword:你数据库的密码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16<property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> </property>
配置环境变量
1
2vi /etc/profile
1
2
3
4#hive export HIVE_HOME=/home/hive export PATH=$HIVE_HOME/bin:$HIVE_HOME/conf:$PATH
然后保存,执行一下命令使其生效
1source /etc/profile
从 Hive 2.1 版本开始, 我们需要先运行 schematool 命令来执行初始化操作。
1schematool -dbType mysql -initSchema
先启动hadoop,然后输入 hive
1hive
项目地址:https://github.com/LX1309244704/sparkDemo
最后
以上就是幸福柠檬最近收集整理的关于Spark项目之环境搭建(单机)二 hive-2.3.3安装的全部内容,更多相关Spark项目之环境搭建(单机)二内容请搜索靠谱客的其他文章。
发表评论 取消回复