潮流计算方法详解
1. 牛顿 - 拉夫逊法概述
牛顿 - 拉夫逊(NR)法具有强大的收敛特性,尽管计算和存储要求较高。与高斯 - 赛德尔法相比,若初始估计值与最终结果相差不大,NR 法收敛所需的迭代次数较少,且迭代次数不会随系统规模的增大而显著增加。甚至可以先用高斯 - 赛德尔法进行几次迭代,将结果作为 NR 法的初始估计值。NR 法的改进形式能提供更快的算法,解耦潮流法和快速解耦解法都是 NR 法的衍生方法。
2. 单变量函数的牛顿 - 拉夫逊法
2.1 泰勒级数展开
任何关于 $x$ 的函数都可以写成幂级数的和,函数 $f(x)$ 的泰勒级数为:
[y = f(x) = f(a) + f’(a)(x - a) + \frac{f’‘(a)}{2!}(x - a)^2 + \cdots + \frac{f^n(a)(x - a)^n}{n!}]
忽略高阶项,仅考虑前两项,级数变为:
[y = f(x) \approx f(a) + f’(a)(x - a)]
当 $x$ 接近 $a$ 时,该级数收敛迅速。若 $x_0$ 是初始估计值,则在点 $(x_0, f(x_0))$ 处的切线方程为:
[y = f(x_0) + f’(x_0)(x_1 - x_0)]
其中 $x_1$ 是 $x$ 的新值,是更接近的估计值。该曲线在新值 $x_1$ 处与 $x$ 轴相交,因此:
[0 = f(x_0) + f’(x_0)(x_1 - x_0)]
[x_1 = x_0 - \frac{f(x_0)}{f’(x_0)}]
一般地:
[x_{k + 1} = x_k -
超级会员免费看
订阅专栏 解锁全文
2180

被折叠的 条评论
为什么被折叠?



