cpu_test.sql

网上看到这样的一个脚本,觉得不错。

[@more@]

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/330796/viewspace-892594/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/330796/viewspace-892594/

(Mathcad+Simulink仿真)基于扩展描述函数法的LLC谐振变换器小信号分析设计内容概要:本文围绕“基于扩展描述函数法的LLC谐振变换器小信号分析设计”展开,结合Mathcad与Simulink仿真工具,系统研究LLC谐振变换器的小信号建模方法。重点利用扩展描述函数法(Extended Describing Function Method, EDF)对LLC变换器在非线性工作条件下的动态特性进行线性化近似,建立适用于频域分析的小信号模型,并通过Simulink仿真验证模型准确性。文中详细阐述了建模理论推导过程,包括谐振腔参数计算、开关网络等效处理、工作模态分析及频响特性提取,最后通过仿真对比验证了该方法在稳定性分析与控制器设计中的有效性。; 适合人群:具备电力电子、自动控制理论基础,熟悉Matlab/Simulink和Mathcad工具,从事开关电源、DC-DC变换器或新能源变换系统研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①掌握LLC谐振变换器的小信号建模难点与解决方案;②学习扩展描述函数法在非线性系统线性化中的应用;③实现高频LLC变换器的环路补偿与稳定性设计;④结合Mathcad进行公式推导与参数计算,利用Simulink完成动态仿真验证。; 阅读建议:建议读者结合Mathcad中的数学推导与Simulink仿真模型同步学习,重点关注EDF法的假设条件与适用范围,动手复现建模步骤和频域分析过程,以深入理解LLC变换器的小信号行为及其在实际控制系统设计中的应用。
[cdp2stg_bi@emr-header-1 loadata_to_pg]$ sh loaddata_create_source_sql.sh cdp_verify.ads_rpt_fsm_sfm_kpi_channel_dmo_tloaddata_create_source_sql.sh: line 5: source_sql/test.sql: No such file or directory SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/apps/ecm/service/hive/3.1.2-hadoop3.1-1.1.4/package/apache-hive-3.1.2-hadoop3.1-1.1.4-bin/lib/log4j-slf4j-impl-2.17.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/apps/ecm/service/hadoop/3.2.1-1.2.0/package/hadoop-3.2.1-1.2.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Hive Session ID = 9c627617-b873-420a-917f-718551683373 Logging initialized using configuration in file:/etc/ecm/hive-conf-3.1.2-hadoop3.1-1.1.4/hive-log4j2.properties Async: true Hive Session ID = ac796e3d-80d3-4c3b-b7bf-0e3a8a66bca9 OK Time taken: 1.035 seconds, Fetched: 52 row(s) loaddata_create_source_sql.sh: line 7: source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory sed: can't read source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory sed: can't read source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory sed: can't read source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory sed: can't read source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory loaddata_create_source_sql.sh: line 19: source_sql/ads_rpt_fsm_sfm_kpi_channel_dmo_t.sql: No such file or directory
10-15
### 解决 Spark 应用达到最大执行器失败次数问题 - **手动设置重试次数**:在 Spark 2.1.0 版本中,当 executor 挂掉后,Driver 会不断尝试连接,导致长时间等待连接超时。可手动设置 retry 次数,避免长时间等待。不过该参数的描述表明此重试逻辑是为了在长 GC 暂停或临时网络连接问题时稳定大型 shuffle。示例代码如下: ```python from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("AppName") \ .config("spark.some.retry.config", "合适的重试次数") \ .getOrCreate() ``` - **升级 Spark 版本**:SPARK - 20178、SPARK - 20230 等 issue 显示,早先设计未考虑 executor 挂掉后 Driver 通知其他 executor 停止取数的问题,该问题在 2017 年 5 月关闭,可能在 Spark 2.3.0 版本中得到修复。若公司允许,可将 Spark 版本升级到 2.3.0 及以上,以解决此设计缺陷带来的问题。 - **检查依赖冲突**:编译 Spark(特别是 spark - hive - thriftserver 模块)时,Maven Enforcer 插件规则可能禁止使用某个依赖,如 `org.apache.hive:hive - service - rpc:jar:3.1.3`,这可能导致执行器失败。需检查项目的依赖配置,排除冲突依赖,确保依赖版本兼容。 - **检查网络和资源**:执行器失败可能是由于网络不稳定或资源不足导致。需检查集群网络连接是否正常,确保执行器节点之间的通信顺畅。同时,检查集群资源使用情况,如 CPU、内存、磁盘 I/O 等,确保有足够资源供执行器运行。 ### 解决 shell 脚本执行时提示找不到 source_sql 目录下 SQL 文件问题 - **检查文件路径**:确认 `source_sql` 目录和 SQL 文件的路径是否正确。在 shell 脚本中,可以使用绝对路径来避免相对路径带来的问题。例如: ```bash #!/bin/bash sql_file="/path/to/source_sql/your_sql_file.sql" if [ -f "$sql_file" ]; then # 执行 SQL 文件的操作 echo "找到 SQL 文件,开始执行..." else echo "未找到 SQL 文件: $sql_file" fi ``` - **检查文件权限**:确保 shell 脚本有足够的权限访问 `source_sql` 目录和其中的 SQL 文件。可以使用 `chmod` 命令修改文件和目录的权限。例如: ```bash chmod +x /path/to/source_sql/your_sql_file.sql ``` - **检查目录是否存在**:在脚本中添加检查 `source_sql` 目录是否存在的逻辑。如果目录不存在,可以进行相应的处理,如创建目录或给出错误提示。示例代码如下: ```bash #!/bin/bash source_dir="/path/to/source_sql" if [ ! -d "$source_dir" ]; then echo "source_sql 目录不存在: $source_dir" exit 1 fi ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值