dss启动脚本

该脚本是一个用于管理DSS集群的bash脚本,包括启动和停止DSS组件如HiveMetastore、HiveServer2,以及其他相关服务如Spark、Zookeeper、DolphinSchedule等。它首先检查命令行参数,然后执行相应的操作,如启动或停止服务,并检查服务状态。

dss启动脚本

#!/bin/bash
if [ $# -lt 1 ]
then
    echo "请正确输入:my_dss.sh {start|stop}"
    exit
fi
HIVE_LOG_DIR=$HIVE_HOME/logs
if [ ! -d $HIVE_LOG_DIR ]
then
	mkdir -p $HIVE_LOG_DIR
fi
#检查进程是否运行正常,参数1为进程名,参数2为进程端口
function check_process()
{
    pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
    ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
    echo $pid
    [[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
}

function hive_start()
{
    metapid=$(check_process HiveMetastore 9083)
    cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
    cmd=$cmd" sleep 4; hdfs dfsadmin -safemode wait >/dev/null 2>&1"
    [ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
    server2pid=$(check_process HiveServer2 10000)
    cmd="nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
    [ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
}
function hive_stop()
{
    metapid=$(check_process HiveMetastore 9083)
    [ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
    server2pid=$(check_process HiveServer2 10000)
    [ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
}
case $1 in
"start")
		echo " =================== 启动 dss-alone ==================="
		
		echo " =================== 启动 hadoop集群 ==================="
		echo " --------------- 启动 hdfs ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/start-dfs.sh"
        echo " --------------- 启动 yarn ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/start-yarn.sh"
        echo " --------------- 启动 historyserver ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/mr-jobhistory-daemon.sh start historyserver"
		
		echo " ------------------- 启动 Metastroe和HiveServer2-------"
		hive_start
      	echo " ------------------- 启动 spark -----------------------"
       	"/opt/module/spark-2.4.3/sbin/start-all.sh"
		sleep 1
		"/opt/module/spark-2.4.3/sbin/start-history-server.sh"
		echo " ------------------- 启动 dss-alone -------------------"
 	    "/opt/module/dss/bin/start-all.sh"
		echo " ------------------- 启动 schedulis_0.7.0_exec --------"
		cd /opt/module/schedulis-0.7.0/schedulis_0.7.0_exec/
		sleep 1
		./bin/start-exec.sh
		echo " ------------------- 启动 schedulis_0.7.0_web ---------"
		cd /opt/module/schedulis-0.7.0/schedulis_0.7.0_web/
		sleep 1
		./bin/start-web.sh 
		echo " ------------------- 启动 visualis --------------------"
	    cd /opt/module/visualis-server/
		sleep 1
		./bin/start-visualis-server.sh
		echo " ------------------- 启动 exchangis -------------------"
		cd /opt/module/exchangis/sbin/
		sleep 1
		./daemon.sh start server
		echo " ------------------- 启动 zookeeper --------------------"
		ssh dss-alone /opt/module/zookeeper-3.5.7/bin/zkServer.sh $1
		sleep 3
		echo " ------------------- 启动 dolphinschedule --------------"
		"/opt/module/ds-1.3.9/bin/start-all.sh"
		sleep 1
		echo " ------------------- 启动 streamis-0.2.0 ---------------"
		"/opt/module/streamis-0.2.0/streamis-server/bin/start-streamis-server.sh"
		echo " ------------------- 启动 qualitis-0.9.2 ---------------"
		"/opt/module/qualitis-0.9.2/bin/start.sh"
		#echo " ------------------- 启动 dataease --------------------"
		#cd /deployments/
		#sleep 1
		#./my_dataease.sh start
		#echo " ------------------- 启动 dataX------------------------"
		#cd /opt/module/datax/datax-web-2.1.2
		#sleep 1
		#./bin/start-all.sh
;;
"stop")
        echo " ===================关闭 dss-alone ==================="
		echo " ------------------- 关闭 qualitis-0.9.2 ---------------"
		"/opt/module/qualitis-0.9.2/bin/stop.sh"
		echo " ------------------- 关闭 visualis -------------------"
		"/opt/module/visualis-server/bin/stop-visualis-server.sh"
		echo " ------------------- 关闭 dolphinschedule --------------"
		"/opt/module/ds-1.3.9/bin/stop-all.sh"
		echo " ------------------- 关闭 streamis-0.2.0 ---------------"
		"/opt/module/streamis-0.2.0/streamis-server/bin/stop-streamis-server.sh"
		echo " ------------------- 关闭 schedulis_0.7.0_exec -------"
		aa=$(check_process AzkabanExecutorServer)
		[ "$aa" ] && kill $aa || echo "AzkabanExecutorServer服务未启动"
		echo " ------------------- 关闭 schedulis_0.7.0_web --------"
		bb=$(check_process AzkabanWebServer)
		[ "$bb" ] && kill $bb || echo "AzkabanWebServer服务未启动"
		echo " ------------------- 关闭 exchangis ------------------"
		cc=$(check_process ExchangisServerApplication)
		[ "$cc" ] && kill $cc || echo "ExchangisServerApplication服务未启动"
		echo " -------------------关闭 dss-alone -------------------"
	    "/opt/module/dss/bin/stop-all.sh"
		echo " --------- 关闭 Metastroe和HiveServer2----------------"
		 hive_stop
       	echo " ------------------ 关闭 spark -------------------"
       	"/opt/module/spark-2.4.3/sbin/stop-all.sh"
		sleep 1
		"/opt/module/spark-2.4.3/sbin/stop-history-server.sh"
		echo " ------------------- 关闭 zookeeper --------------------"
		 ssh dss-alone /opt/module/zookeeper-3.5.7/bin/zkServer.sh $1
		echo " =================== 关闭 hadoop集群 ==================="

        echo " --------------- 关闭 historyserver ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/mr-jobhistory-daemon.sh stop historyserver"
        echo " --------------- 关闭 yarn ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/stop-yarn.sh"
        echo " --------------- 关闭 hdfs ---------------"
        ssh dss-alone "/opt/module/hadoop-2.7.2/sbin/stop-dfs.sh"
		
		#echo " ------------------- 关闭 dataease -------------------"
		#cd /deployments/
		#sleep 1
		#./my_dataease.sh stop
		#echo " ------------------- 关闭dataX------------------------"
		#cd /opt/module/datax/datax-web-2.1.2
		#sleep 1
		#./bin/stop-all.sh
;;
"status")
    check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
    check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常"
    ;;
*)
    echo "输入参数有误!"
;;
esac

【电力系统】单机无穷大电力系统短路故障暂态稳定Simulink仿真(带说明文档)内容概要:本文档围绕“单机无穷大电力系统短路故障暂态稳定Simulink仿真”展开,提供了完整的仿真模型与说明文档,重点研究电力系统在发生短路故障后的暂态稳定性问题。通过Simulink搭建单机无穷大系统模型,模拟不同类型的短路故障(如三相短路),分析系统在故障期间及切除后的动态响应,包括发电机转子角度、转速、电压和功率等关键参数的变化,进而评估系统的暂态稳定能力。该仿真有助于理解电力系统稳定性机理,掌握暂态过程分析方法。; 适合人群:电气工程及相关专业的本科生、研究生,以及从事电力系统分析、运行与控制工作的科研人员和工程师。; 使用场景及目标:①学习电力系统暂态稳定的基本概念与分析方法;②掌握利用Simulink进行电力系统建模与仿真的技能;③研究短路故障对系统稳定性的影响及提高稳定性的措施(如故障清除时间优化);④辅助课程设计、毕业设计或科研项目中的系统仿真验证。; 阅读建议:建议结合电力系统稳定性理论知识进行学习,先理解仿真模型各模块的功能与参数设置,再运行仿真并仔细分析输出结果,尝试改变故障类型或系统参数以观察其对稳定性的影响,从而深化对暂态稳定问题的理解。
本研究聚焦于运用MATLAB平台,将支持向量机(SVM)应用于数据预测任务,并引入粒子群优化(PSO)算法对模型的关键参数进行自动调优。该研究属于机器学习领域的典型实践,其核心在于利用SVM构建分类模型,同时借助PSO的全局搜索能力,高效确定SVM的最优超参数配置,从而显著增强模型的整体预测效能。 支持向量机作为一种经典的监督学习方法,其基本原理是通过在高维特征空间中构造一个具有最大间隔的决策边界,以实现对样本数据的分类或回归分析。该算法擅长处理小规模样本集、非线性关系以及高维度特征识别问题,其有效性源于通过核函数将原始数据映射至更高维的空间,使得原本复杂的分类问题变得线性可分。 粒子群优化算法是一种模拟鸟群社会行为的群体智能优化技术。在该算法框架下,每个潜在解被视作一个“粒子”,粒子群在解空间中协同搜索,通过不断迭代更新自身速度与位置,并参考个体历史最优解和群体全局最优解的信息,逐步逼近问题的最优解。在本应用中,PSO被专门用于搜寻SVM中影响模型性能的两个关键参数——正则化参数C与核函数参数γ的最优组合。 项目所提供的实现代码涵盖了从数据加载、预处理(如标准化处理)、基础SVM模型构建到PSO优化流程的完整步骤。优化过程会针对不同的核函数(例如线性核、多项式核及径向基函数核等)进行参数寻优,并系统评估优化前后模型性能的差异。性能对比通常基于准确率、精确率、召回率及F1分数等多项分类指标展开,从而定量验证PSO算法在提升SVM模型分类能力方面的实际效果。 本研究通过一个具体的MATLAB实现案例,旨在演示如何将全局优化算法与机器学习模型相结合,以解决模型参数选择这一关键问题。通过此实践,研究者不仅能够深入理解SVM的工作原理,还能掌握利用智能优化技术提升模型泛化性能的有效方法,这对于机器学习在实际问题中的应用具有重要的参考价值。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是刘望舒

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值