我是靠谱客的博主 淡然夏天,最近开发中收集的这篇文章主要介绍shell脚本启动大数据组件,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1 启动elasticsearch集群

#!/bin/bash
#配置ES的安装目录 修改的地方1 脚本可以自己创建
esServers='cdh01 cdh02'
#启动所有的zk
for es in $esServers
do
ssh -T $es <<EOF
source ~/.bash_profile
elasticsearch -d
EOF
echo 从节点 $es 启动elasticsearch...[ done ]
sleep 5
done

2 启动zk集群

#!/bin/bash
#配置ES的安装目录 修改的地方1 脚本可以自己创建
esServers='cdh01 cdh02'
#启动所有的zk
for es in $esServers
do
ssh -T $es <<EOF
source ~/.bash_profile
elasticsearch -d
EOF
echo 从节点 $es 启动elasticsearch...[ done ]
sleep 5
done
[bigdata@cdh01 /home/bigdata/sh2]$cat starthadoop.sh
#!/bin/bash
#启动所有的hadoop
slaveNode='cdh02'
source ~/.bash_profile
start-all.sh
sleep 2
#启动另一台机器的resourcemanager
ssh -T $slaveNode <<EOF
source ~/.bash_profile
yarn-daemon.sh start resourcemanager
EOF
echo
$slaveNode 启动resourcemanager...[ done ]

3 启动kafka集群

#!/bin/bash
kafkaServers='cdh01 cdh02 cdh03 cdh04 cdh05'
#启动所有的kafka
for kafka in $kafkaServers
do
ssh -T $kafka <<EOF
source ~/.bash_profile
nohup kafka-server-start.sh /bigdata/kafka/config/server.properties 1>/dev/null 2>&1 &
EOF
echo 从节点 $kafka 启动kafka...[ done ]
sleep 5
done

4 启动kibana

#!/bin/bash
d /bigdata/install5/kibana-6.5.4-linux-x86_64/
nohup /bigdata/install5/kibana-6.5.4-linux-x86_64/bin/kibana &

5 启动hadoop集群

#!/bin/bash
#启动所有的hadoop
slaveNode='cdh02'
source ~/.bash_profile
start-all.sh
sleep 2
#启动另一台机器的resourcemanager
ssh -T $slaveNode <<EOF
source ~/.bash_profile
yarn-daemon.sh start resourcemanager
EOF
echo
$slaveNode 启动resourcemanager...[ done ]

最后

以上就是淡然夏天为你收集整理的shell脚本启动大数据组件的全部内容,希望文章能够帮你解决shell脚本启动大数据组件所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(36)

评论列表共有 0 条评论

立即
投稿
返回
顶部