POJ 3233 Matrix Power Series(矩阵求A+…+A^k 的和)

本文介绍了一种使用矩阵快速幂解决特定数学问题的方法。通过两次二分法处理矩阵的幂次求和,针对不同奇偶性的幂次进行优化。代码实现了矩阵运算的基本操作,并提供了完整的算法实现。

题目链接:Click here~~

题意:

给你一个n*n的矩阵 A,求出 A + A^2 + … + A^k 的值。

解题思路:

需用用到两次二分。

考虑 k 为奇数和偶数两种情况。

1、奇数:A + A^2 + … + A^k = 【A + A^2 + … + A^(k/2)】 + A^(k/2+1) + A^(k/2+1)*【A + A^2 + … + A^(k/2)】。

2、偶数:A + A^2 + … + A^k = 【A + A^2 + … + A^(k/2)】 + A^(k/2)*【A + A^2 + … + A^(k/2)】。

其中,A^(k/2) 和 A^(k/2+1) 与 【A + A^2 + … + A^k 】的值可以通过二分算出。

#include <stdio.h>
#include <string.h>

typedef __int64 LL;

#define N 32

int K,mod;

struct Matrix
{
    int r,c;
    int m[N][N];
    Matrix(){}
    Matrix(int r,int c):r(r),c(c){}
    Matrix operator *(const Matrix& B)
    {
        Matrix T(r,B.c);
        for(int i=1;i<=T.r;i++)
        {
            for(int j=1;j<=T.c;j++)
            {
                int tt = 0;
                for(int k=1;k<=c;k++)
                    tt += m[i][k]*B.m[k][j] % mod;
                T.m[i][j] = tt % mod;
            }
        }
        return T;
    }
    Matrix operator +(const Matrix& B)
    {
        Matrix T(r,c);
        for(int i=1;i<=T.r;i++)
            for(int j=1;j<=T.c;j++)
                T.m[i][j] = (m[i][j]+B.m[i][j]) % mod;
        return T;
    }
    Matrix Unit(int h)
    {
        Matrix T(h,h);
        memset(T.m,0,sizeof(T.m));
        for(int i=1;i<=h;i++)
            T.m[i][i] = 1;
        return T;
    }
    Matrix Pow(int n)
    {
        Matrix P = *this,Res = Unit(r);
        while(n)
        {
            if(n&1)
                Res = Res*P;
            P = P*P;
            n >>= 1;
        }
        return Res;
    }
    void Init()
    {
        int h;
        scanf("%d%d%d",&h,&K,&mod);
        r = c = h;
        for(int i=1;i<=r;i++)
            for(int j=1;j<=c;j++)
                scanf("%d",&m[i][j]);
    }
    void Print()
    {
        for(int i=1;i<=r;i++)
        {
            for(int j=1;j<=c;j++)
                printf("%d ",m[i][j]);
            printf("\n");
        }
    }
}Single;

Matrix solve(int k)
{
    if(k == 1)
        return Single;
    Matrix Sum = solve(k/2);
    if(k&1)
    {
        Matrix Ak_1 = Single.Pow(k/2+1);
        return Sum + Ak_1 + Ak_1*Sum;
    }
    else
    {
        Matrix Ak = Single.Pow(k/2);
        return Sum + Ak*Sum;
    }
}

int main()
{
    Single.Init();
    Matrix Ans(Single.r,Single.c);
    Ans = solve(K);
    Ans.Print();
    return 0;
}


基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的Koopman算子的递归神经网络模型线性化”展开,旨在研究纳米定位系统的预测控制问题,并提供完整的Matlab代码实现。文章结合数据驱动方法与Koopman算子理论,利用递归神经网络(RNN)对非线性系统进行建模与线性化处理,从而提升纳米级定位系统的精度与动态响应性能。该方法通过提取系统隐含动态特征,构建近似线性模型,便于后续模型预测控制(MPC)的设计与优化,适用于高精度自动化控制场景。文中还展示了相关实验验证与仿真结果,证明了该方法的有效性先进性。; 适合人群:具备一定控制理论基础Matlab编程能力,从事精密控制、智能制造、自动化或相关领域研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①应用于纳米级精密定位系统(如原子力显微镜、半导体制造设备)中的高性能控制设计;②为非线性系统建模与线性化提供一种结合深度学习与现代控制理论的新思路;③帮助读者掌握Koopman算子、RNN建模与模型预测控制的综合应用。; 阅读建议:建议读者结合提供的Matlab代码逐段理解算法实现流程,重点关注数据预处理、RNN结构设计、Koopman观测矩阵构建及MPC控制器集成等关键环节,并可通过更换实际系统数据进行迁移验证,深化对方法泛化能力的理解。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值