我是靠谱客的博主 含糊煎饼,最近开发中收集的这篇文章主要介绍安装一个单节点的HADOOP,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

 

对于数据科学刚入门的新人来说,一个单节点的HADOOP平台的搭建是比较重要的.

他能帮助我们认识HADOOP的结构,更深入的理解这个平台的工作原理.

如果你也是windows操作系统,那么请跟我一起.

或可从此处先了解hadoop在做什么:

https://mp.weixin.qq.com/s?__biz=MzIzMTE1ODkyNQ==&mid=2649411054&idx=1&sn=f5fc02ccfb32cbe0421f13255027ae3f&chksm=f0b6080cc7c1811a7a333994bd77f2b57b6d6962e90d52ef173b06345f309ce6ecfa62519b7e&scene=21#wechat_redirect

 

欲安装一个单节点的hadoop,我们先要做好这几步:

  • 安装虚拟机:

virtualbox下载地址:https://www.virtualbox.org/wiki/Downloads

  • 给虚拟机安装一个linux系统:

ubuntu 下载地址:https://www.ubuntu.com/download/alternative-downloads

  • 给linux安装jdk:

jdk下载和安装:

sudo apt-get update
sudo apt-get install default-jdk

java -version 可以看到安装的Java 版本:

查看Java 安装位置:

hduser@hadoop:~$ update-alternatives --display java 

  • 设置好SSH无密码登陆

我们知道,Hadoop是很多服务器组成的,NameNode 与DataNode相连接,并管理DataNode。

为了让连接时不总是需要输入密码,设置好SSH无密码登陆很重要。

这一部分可以参考:https://blog.csdn.net/qq_38262266/article/details/79154494

先确保已安装ssh

hduser@hadoop:~$ sudo apt-get install ssh
hduser@hadoop:~$ sudo apt-get install rsync

产生秘钥:

hduser@hadoop:~$ ssh-keygen  -t  rsa  -P ''

将产生的秘钥放入许可证文件中。

 cat  .ssh/id_rsa.pub  >>  .ssh/authorized_keys


 

下载hadoop,解压,并配置文件。

hadoop下载地址:http://archive.apache.org/dist/hadoop/common//hadoop-2.7.0/

wget 下载 :

wget http://archive.apache.org/dist/hadoop/common//hadoop-2.7.0/hadoop-2.7.0.tar.gz

解压:tar -zxvf hadoop-2.7.0.tar.gz 得到解压后文件

将文件移动一下:

hduser@hadoop:~$ sudo mv hadoop-2.7.0 /usr/local/hadoop

 

  • 配置HADOOP

运行HADOOP需要设置一些环境变量,因此我们需要修改~/.bashrc 文件:
 

#java path
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

export HADOOP_MAPPED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-DJava.library.path=$HADOOP_HOME/lib"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH

配置文件修改:

1、hadoop-env.sh:

sudo vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

修改JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

2、core-site.xml

hduser@hadoop:~$ sudo vim /usr/local/hadoop/etc/hadoop/core-site.xml 

必须设置默认的HDFS名称 

<configuration>
<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value>
</property>
</configuration>

3、yarn-site.xml 

hduser@hadoop:~$ sudo vim /usr/local/hadoop/etc/hadoop/yarn-site.xml 

 

<configuration>

<!-- Site specific YARN configuration properties -->


<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>

</property>


<property>
  <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  <value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>


</configuration>

4、mapred-site.xml

该文件用于设置监控map reduce程序的 jobTracker 任务的分配情况,以及taskTracker的运行情况。

Hadoop提供了模板,mapred-site.xml.template,可以拷贝修改。

hduser@hadoop:~$ sudo cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
hduser@hadoop:~$ sudo vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

<configuration>
<!-- 设置mapreduce 的框架为 yarn-->
<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>

</property>



</configuration>
                    

 

5、hdfs-site.xml

hduser@hadoop:~$ sudo vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml

<configuration>
<!-- blocks的备份数量默认为3-->
<property>
    <name>dfs.replication</name>
    <value>3</value>

</property>
<!-- namenode 的数据存储位置-->
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/usr/local/hadoop/hadoop_data/hdfs/namenode</value>
</property>

<!-- datanode的数据存储位置-->
<property>
  <name>dfs.namenode.data.dir</name>
  <value>file:/usr/local/hadoop/hadoop_data/hdfs/datanode</value>
</property>


</configuration>

 

 

hduser@hadoop:~$ sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode
hduser@hadoop:~$ sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode

#修改文件所有者
hduser@hadoop:~$ sudo chown hduser:hduser -R /usr/local/hadoop
  • HADOOP 启动
hadoop namenode -format

 启动hadoop的方式有两种:

1、分别启动HDFS、YARN 

终端输入如下命令:

start-dfs.sh

start-yarn.sh

2、同时启动 HDFS、YARN 

start-all.sh

 

  • 观察启动情况

jps查看进程的启动情况:

hduser@hadoop:~$ jps
4500 Jps
3413 SecondaryNameNode
4392 NodeManager
4092 ResourceManager
3805 DataNode
3662 NameNode

 

Hadoop ResourceManage Web 网址 http://localhost:8088/cluster/nodes

HDFS WEB网址 http://localhost:50070

______________________________________________________

单节点hadoop部署完成

最后

以上就是含糊煎饼为你收集整理的安装一个单节点的HADOOP的全部内容,希望文章能够帮你解决安装一个单节点的HADOOP所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(42)

评论列表共有 0 条评论

立即
投稿
返回
顶部