我是靠谱客的博主 明理口红,最近开发中收集的这篇文章主要介绍Hadoop3.0集群安装部署,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

前提配置:jdk1.8

  • 解压Hadoop(根据自己情况来)

    • tar -zxf /usr/local/install_package/hadoop-3.1.3.tar.gz -C /opt/
      
  • 修改配置文件,进入到etc/hadoop目录下

    • 修改hadoop.env.sh 在文件末尾追加

      • #添加jdk地址
        export JAVA_HOME=/usr/java/jdk1.8.0_162
        #设置启动节点,防止启动时报错,2.0可以省略
        export HDFS_NAMENODE_USER=root
        export HDFS_DATANODE_USER=root
        export HDFS_SECONDARYNAMENODE_USER=root
        export YARN_RESOURCEMANAGER_USER=root
        export YARN_NODEMANAGER_USER=root
        
    • 修改core-site.xml 在 configuration 中添加以下内容

      • 
        <!-- 设置data存放路径 -->
        <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-3.1.3/data</value>
        </property>
        <!-- 设置主节点 -->
        <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:8020</value>
        </property>
        
    • 修改yarn-site.xml 在 configuration 中添加以下内容

      • 
        <!-- 指定shuffle方式 -->
        <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
        </property>
        <!-- 指定ResourceManager地址 -->
        <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
        </property>
        <!-- 取消虚拟内存限制 -->
        <property>
        <name>yarn.nodemanager.vmem-check-enabled</name>
        <value>false</value>
        </property>
        <!-- 设置最小内存-->
        <property>
        <name>yarn.scheduler.minimum-allocation-mb</name>
        <value>1024</value>
        </property>
        <!-- 设置最小cpu核数-->
        <property>
        <name>yarn.scheduler.minimum-allocation-vcores</name>
        <value>1</value>
        </property>
        <!-- 开启log日志-->
        <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
        </property>
        
    • 修改works

      • #添加设置三台主机
        #去掉localhost
        master
        slave1
        slave2
        
    • 修改hdfs-site.xml 在 configuration 中添加以下内容

      • 
        <!-- 指定副本数 -->
        <property>
        <name>dfs.replication</name>
        <value>3</value>
        </property>
        
    • 修改mapred-site.xml 在 configuration 中添加以下内容

      • 
        <!-- 指定MapReduce运行在yarn上 -->
        <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
        </property>
        
  • 分发Hadoop到另外两台电脑上

    • scp -r /opt/hadoop-3.1.3 slave1:/opt/
      scp -r /opt/hadoop-3.1.3 slave2:/opt/
      
  • 初始化

    • #切换到bin目录下。
      #格式化完后找到 "successfully formatted" 表示格式化成功
      ./hdfs namenode -format
      common.Storage: Storage directory /opt/hadoop-3.1.3/data/dfs/name has been successfully formatted.
      
  • 启动

    • #切换到sbin目录下
      cd ../sbin/
      #启动Hadoop
      ./start-all.sh
      
  • 检查启动节点

    • jps
      13058 DataNode
      13266 SecondaryNameNode
      12931 NameNode
      14038 Jps
      13544 ResourceManager
      13704 NodeManager
      #六个节点全部启动表示启动成功
      

如有问题可在下方留言
感谢大家的观看!!!

最后

以上就是明理口红为你收集整理的Hadoop3.0集群安装部署的全部内容,希望文章能够帮你解决Hadoop3.0集群安装部署所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(56)

评论列表共有 0 条评论

立即
投稿
返回
顶部