概述
1. 官网下载
2. 解压
tar -zxvf hadoop-3.0.0.tar.gz
3. 环境变量
vi /etc/profile
export JAVA_HOME=/usr/local/java
export HADOOP_HOME=/usr/local/hadoop3
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
注意:/usr/local/hadoop3为解压路径 /usr/local/java为jdk路径
4. 配置文件 hadoop3/etc/hadoop
1) hadoop-env.sh
export JAVA_HOME=/usr/local/java
export HADOOP_HOME=/root/hadoop-3.0.0
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
2)core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop102:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/root/hadoop-3.0.0/data</value>
</property>
</configuration>
3) hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
4) yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop102</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
5) mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.admin.user.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=$HADOOP_COMMON_HOME</value>
</property>
6)关闭防火墙
systemctl stop firewalld.service
开启防火墙:
systemctl start firewalld.service
关闭开机启动:
systemctl disable firewalld.service
开启开机启动:
systemctl enable firewalld.service
7)首次启动,需要格式化下
hadoop namenode -format
8)配置免密登录
ssh-keygen 生成私钥和公钥
ssh-copy-id localhost 将公钥拷贝到要免密登录的机器上
6. 启动
start-dfs.sh
start-yarn.sh
jps查看是否启动
7. 运行wordcount
hdfs dfs -cat /logs/wordcount.loghadoop jar /usr/local/hadoop3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0.jarwordcount /logs/wordcount.log /output/wordcount
注意: /usr/local/hadoop3是解压路径,/logs/wordcount.log是输入文件路径,/output/wordcount运行结果路径
查看运行结果: hdfs dfs -text /output/wordcount/part-r-00000
8. Web界面
http://hadoop102:9870/http://hadoop102:8088/
9.上传文件测试
hadoop fs -put jdk1.8.tar.gz /
上传到根目录
hadoop-evn.xml里面的用户名和免密登录必须设置,否则报错
最后
以上就是儒雅樱桃为你收集整理的centos7安装hadoop3.0.0笔记1. 官网下载2. 解压3. 环境变量4. 配置文件 hadoop3/etc/hadoop6. 启动7. 运行wordcount8. Web界面9.上传文件测试的全部内容,希望文章能够帮你解决centos7安装hadoop3.0.0笔记1. 官网下载2. 解压3. 环境变量4. 配置文件 hadoop3/etc/hadoop6. 启动7. 运行wordcount8. Web界面9.上传文件测试所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复