大数据常用环境中,除了hadoop、spark本身自带脚本,能够完成快速启停,其它组件的启动命令稍微复杂,而且步骤较多。
首先是hive,在多用户环境中启动时,需要启动metastore、hiveserver2服务。其次,使用beeline进行连接测试时,也略显冗长。关闭服务时,也需要先使用jps命令找到RunJar,然后手动kill掉。
在学习时,就会增加很多不便。这些可以简单封装为脚本,便于自己操作。
有些脚本虽然简单,但确实几行代码能节约不少时间。
除了Hive,当然还有Zookeeper,需要在各个节点中进行启停。这部分也可以封装为脚本:zookeeper.sh。
#! /bin/bash
case $1 in
"start"){
for i in node01 node02 node03
do
ssh $i "source /etc/profile && /opt/app/zookeeper-3.4.10/bin/zkServer.sh start"
done
};;
"stop"){
for i in node01 node02 node03
do
ssh $i "source /etc/profile && /opt/app/zookeeper-3.4.10/bin/zkServer.sh stop"
done
};;
esac
这样,启动时,一行命令简化工作。
# 集群启动
zookeeper.sh start
# 集群停止
zookeeper.sh stop
但凡提到Zookeeper,当然也少不了Kafka。这里封装为kafka.sh。
#! /bin/bash
case $1 in
"start"){
for i in node01 node02 node03
do
echo " --------启动 $i kafka-------"
# 用于KafkaManager监控
ssh $i "source /etc/profile && export JMX_PORT=9988 && /opt/app/kafka_2.11-0.11.0.2/bin/kafka-server-start.sh -daemon /opt/app/kafka_2.11-0.11.0.2/config/server.properties "
done
};;
"stop"){
for i in node01 node02 node03
do
echo " --------停止 $i kafka-------"
ssh $i "source /etc/profile && /opt/app/kafka_2.11-0.11.0.2/bin/kafka-server-stop.sh"
done
};;
esac
使用时,同样根据传入的参数来进行集群的启停。
# 集群启动
kafka.sh start
# 集群停止
kafka.sh stop
这里只是给大家提供一种思路,工作中有很多繁杂的命令,无需逐条记熟,并亲力亲为逐条输入。一次投入,多次使用,封装为脚本它不香吗?
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有