我是靠谱客的博主 称心便当,最近开发中收集的这篇文章主要介绍Ubuntu18.04下安装Java、Hadoop和Hive一、安装并配置Java二、SSH安装、配置三、hadoop下载安装四、部署HIVE,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
一、安装并配置Java
openjdk
- 更新软件包列表:
sudo apt-get update
- 安装openjdk-8-jdk:
sudo apt-get install openjdk-8-jdk
- 查看java版本,看看是否安装成功:
java -version
- 配置JAVA_HOME
进入相应的目录
cd /usr/bin
查看java的链接
ls -l java
再进入到相应的目录
/etc/alternatives
查看java的链接
ls -l java
设置环境变量:打开环境变量的配置文件
sudo gedit /etc/profile
在末尾添加:
JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
export JAVA_HOME
export PATH
重新加载环境变量的配置文件:
source /etc/profile
java -version
二、SSH安装、配置
在Linux中安装SSH免登录认证,用于避免使用Hadoop时的权限问题。
SSH的安装命令:
sudo apt-get install ssh
三、hadoop下载安装
镜像:https://mirrors.cnnic.cn/apache/hadoop/common/
选择稳定版本 stable/
选择hadoop-3.3.0-aarch64.tar.gz
然后将其解压到:/usr/local
sudo tar -zxf /home/yangning/Downloads/hadoop-3.3.0-aarch64.tar.gz -C /usr/local
重命名并修改权限:
cd /usr/local/
sudo mv ./hadoop-3.3.0 ./hadoop
sudo chown -R yangning ./hadoop
检测:
/usr/local/hadoop/bin/hadoop version
配置Hadoop
单机配置:
无需做任何东西,上面安装成功即是默认的单机模式:
测试:
cd /usr/local/hadoop
./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.0.jar
环境变量
gedit /etc/profile
export PATH=$PATH:/usr/local/hadoop/bin
source /etc/profile
hadoop version
四、部署HIVE
- Hive 安装
下载地址:http://hive.apache.org/downloads.html
tar -xvf apache-hive-3.1.2-bin.tar.gz
mv apache-hive-3.1.2-bin /opt/hive/
cd /opt/hive
mv apache-hive-3.1.2-bin hive-3.1.2
- 配置环境变量
gedit /etc/profile
export HIVE_HOME=/opt/hive/hive-3.1.2
export HIVE_CONF_DIR=${HIVE_HOME}/conf
source /etc/profile
- 创建一些目录
在修改配置文件之前,需要先在本地opt(可以是任意目录)目录下建立一些文件夹。
mkdir /opt/hive
mkdir /opt/hive/warehouse
在hadoop上新建同样的目录并赋予读写权限:
hadoop fs -mkdir -p /opt
hadoop fs -mkdir -p /opt/hive/
hadoop fs -mkdir -p /opt/hive/warehouse
hadoop fs -chmod 777 /opt/hive/
hadoop fs -chmod 777 /opt/hive/warehouse
- 修改hive-site.xml
切换到 /opt/hive/hive-3.1.2/conf 目录下,将hive-default.xml.template 拷贝一份,并重命名为hive-site.xml然后编辑hive-site.xml文件
cp hive-default.xml.template hive-site.xml
gedit hive-site.xml
<!-- 指定HDFS中的hive仓库地址 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/root/hive/warehouse</value>
</property>
<property>
<name>hive.exec.scratchdir</name>
<value>/root/hive</value>
</property>
<!-- 该属性为空表示嵌入模式或本地模式,否则为远程模式 -->
<property>
<name>hive.metastore.uris</name>
<value></value>
</property>
<!-- 指定mysql的连接 -->
<!-- localhost是mysql所在机器的IP这里是本地所以localhost-->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true&useSSL=false</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property>
<!-- 指定驱动类 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- 指定用户名 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- 指定密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>password</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
<description>
</description>
</property>
然后将配置文件中所有的
${system:java.io.tmpdir}更改为 /opt/tmp/hive (如果没有该文件则创建),
并将hive文件夹赋予777权限,将
${system:user.name}更改为 root
- 修改 hive-env.sh
修改hive-env.sh 文件
cp hive-env.sh.template hive-env.sh
在这个配置文件中添加
gedit hive-env.sh
export HADOOP_HOME=/usr/local/hadoop
export HIVE_CONF_DIR=/opt/hive-3.1.2/conf
export HIVE_AUX_JARS_PATH=/opt/hive-3.1.2/lib
- 添加mysql 数据驱动包
安装mysql-connector-java 驱动
最后
以上就是称心便当为你收集整理的Ubuntu18.04下安装Java、Hadoop和Hive一、安装并配置Java二、SSH安装、配置三、hadoop下载安装四、部署HIVE的全部内容,希望文章能够帮你解决Ubuntu18.04下安装Java、Hadoop和Hive一、安装并配置Java二、SSH安装、配置三、hadoop下载安装四、部署HIVE所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复