IGBT参数学习

IGBT(绝缘栅双极晶体管(Insulated Gate Bipolar Transistor))的内部架构如下所示:

IGBT是个单向的器件,电流只能朝一个方向流动,通常IGBT会并联一个续流二极管

IGBT型号:IKW40N120T2

IKW40N120T2 电路符号

IGBT和MOSFET不同,体现在驱动时候的电流会拖尾 Tail,启动和关闭都会有延时,典型的几个参数如下所示

这些参数的解释是:

Turn-on delay time: 10% of gate voltage to 10% of collector current

"开启延迟时间:门极电压的10%至集电极电流的10%"

Rise time: 10% to 90% of collector current

Turn-off delay time: 90% of gate voltage to 10% of collector voltage

"关断延迟时间:门极电压从90%降至集电极电压的10%"

Fall time: 90% to 10% of collector current.

在使Gate关闭时候,VCE几乎完全到达输入值,ICE才会开始下降,而且下降的过程会比较长

使用IGBT仿真BOOST结果如下所示

IGBT在Gate电压到达15V时候VCE电压慢慢的下降

IGBT在Gate电压到达0V 时候VCE电压慢慢的上升

等到VCE电压上升到峰值以后,ICE在慢慢的下降

IGBT的短路耐受时间Tsc的含义是在VCE正常工作提供比较高的电压时候VGE错误打开,导致VCC对地短路,在Tsc的短路时间内IGBT不会损坏

IGBT导通时候没有RDSON这个概念,导通时候IGBT的功耗由VCE SAT再去×ICE得出导通时候的功耗,通常MOSFET耐压值越高RDSON也就越高,如果电流比较小MOSFET和IGBT相比可能会有优势,如果电流大了则IGBT更有优势

IGBT Char:NGTB15N60S1EG

饱和电压为参数第二行

IGBT可能是不包含Freewheeling diode的,有的包含的Freewheeling diode会给出ta的参数,主要是二极管的反向恢复特性,当二极管的电压从正偏转向反偏时候,二极管上的电流不会马上转向,二极管的电流还会继续朝原先的方向流动,到达一个峰值以后在消失,这个时间以Trr表示,这个电流会有多少由Qrr表示。

二极管的电流下降时间越短,那么他的电流尖峰Irrm就越大,测试电路和仿真波形如下所示。

今天就先聊到这了,拜拜~

参考文档:

onsemi -- reading onsemi IGBT datasheets

NGTB15N60S1EG datasheet

IGBT WIKI -EN

​来源公众号:xuyuntong

### 使用机器学习预测 IGBT 寿命的方法 #### 数据准备 为了实现 IGBT 的寿命预测,首先需要收集大量的运行数据。这些数据通常包括温度、电压、电流以及开关频率等参数[^1]。此外,还需要记录设备的工作环境条件,例如湿度和冷却系统的效率等因素。 #### 特征工程 特征的选择对于任何机器学习模型的成功至关重要。可以考虑将时间序列中的最大值、最小值、均方根(RMS)作为输入变量的一部分。另外,热循环次数、过载情况下的持续时间和恢复能力也是重要的指标[^2]。 #### 模型选择 有多种类型的算法适用于这种回归问题,比如随机森林(Random Forests),支持向量机(Support Vector Machines, SVMs), 和神经网络(Neural Networks)等。其中长期短期记忆(Long Short-Term Memory, LSTM)网络特别适合处理具有时间依赖性的序列数据,在捕捉器件老化过程方面表现出色。 以下是采用LSTM进行IGBT剩余使用寿命估计的一个简单Python代码示例: ```python import numpy as np from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout, LSTM def create_model(input_shape): model = Sequential() # Adding the first LSTM layer and some Dropout regularisation model.add(LSTM(units=50, return_sequences=True, input_shape=input_shape)) model.add(Dropout(0.2)) # Adding a second LSTM layer and some Dropout regularisation model.add(LSTM(units=50,return_sequences=False)) model.add(Dropout(0.2)) # Adding the output layer model.add(Dense(units=1)) # Compiling the RNN model.compile(optimizer='adam', loss='mean_squared_error') return model ``` 此函数定义了一个两层的LSTM结构,并设置了dropout以防过度拟合训练集上的模式。最后通过密集连接层输出单一数值表示预计RUL (Remaining Useful Life). #### 训练与评估 利用历史操作条件下积累的数据集来调整上述模型权重直至达到满意的精度水平为止。之后可运用交叉验证技巧进一步确认泛化性能良好与否。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值