[BZOJ 1084][SCOI2005]最大子矩阵

探讨了一个关于从n*m大小的二维矩阵中选择k个不重叠子矩阵的问题,使其价值总和最大。针对m等于1或2的情况,分别采用了一维和三维动态规划方法来解决该问题。

题目描述:这里有一个n*m的矩阵,请你选出其中k个子矩阵,使得这个k个子矩阵分值之和最大。注意:选出的k个子矩阵不能相互重叠。(1≤n≤100,1≤m≤2,1≤k≤10)

解法:m为1或2,m=1时问题转化为经典DP问题,转移方程为dp[i][k]=max(dp[i-1][k],dp[i-选择区间长][k-1]+选择区间和),dp数组代表1到i之间取k个区间的最大值。类似的,m=2时使用三维数组,dp[i][j][k]=max(dp[i-1][j][k],dp[i][j-1][k],dp[i-l][j][k-1]+sum(l),dp[i][j-l][k-1]+sum(l)),另外再处理一下i=j的情况即可。


另外这题对于是否需要选满k个区间未解释清楚,这里给出的程序可以不选满,注意评测数据也避开了此问题。


代码:

#include<iostream>
#include<cstdio>
#include<cstring>
using namespace std;

int n,m,k;
int map[300][3],dp[300][300][12];
int main(){
    scanf("%d%d%d",&n,&m,&k);
    for(int i=1;i<=n;i++)
        for(int j=1;j<=m;j++)
            scanf("%d",&map[i][j]);
    if(m==1){
        memset(dp,0,sizeof(dp));
        for(int i=1;i<=k;i++){
            for(int j=1;j<=n;j++){
                int tmp=dp[j-1][1][i],s=0;
                for(int t=j;t>=1;t--){
                    s+=map[t][1];
                    if(s+dp[t-1][1][i-1]>tmp){tmp=s+dp[t-1][1][i-1];}
                }
                dp[j][1][i]=tmp;
            }
        }
        cout<<dp[n][1][k]<<endl;

    }
    if(m==2){
        memset(dp,0,sizeof(dp));
        for(int t=1;t<=k;t++)
            for(int i=1;i<=n;i++)
                for(int j=1;j<=n;j++){

                        int tmp=dp[i-1][j][t];
                        tmp=max(tmp,dp[i][j-1][t]);
                        int s=0;
                        for(int i1=i;i1>=1;i1--){
                            s+=map[i1][1];
                            if(s+dp[i1-1][j][t-1]>tmp)tmp=s+dp[i1-1][j][t-1];
                        }
                        s=0;
                        for(int i1=j;i1>=1;i1--){
                            s+=map[i1][2];
                            if(s+dp[i][i1-1][t-1]>tmp)tmp=s+dp[i][i1-1][t-1];
                        }

                        if(i==j){
                            s=0;
                            for(int i1=j;i1>=1;i1--){
                                s=map[i1][1]+map[i1][2]+s;
                                if(s+dp[i1-1][i1-1][t-1]>tmp)tmp=s+dp[i1-1][i1-1][t-1];
                            }
                        }
                        dp[i][j][t]=tmp;
                }
                cout<<dp[n][n][k]<<endl;


    }
    return 0;
}


基于数据驱动的 Koopman 算子的递归神经网络模型线性化,用于纳米定位系统的预测控制研究(Matlab代码实现)内容概要:本文围绕“基于数据驱动的Koopman算子的递归神经网络模型线性化”展开,旨在研究纳米定位系统的预测控制问题,并提供完整的Matlab代码实现。文章结合数据驱动方法与Koopman算子理论,利用递归神经网络(RNN)对非线性系统进行建模与线性化处理,从而提升纳米级定位系统的精度与动态响应性能。该方法通过提取系统隐含动态特征,构建近似线性模型,便于后续模型预测控制(MPC)的设计与优化,适用于高精度自动化控制场景。文中还展示了相关实验验证与仿真结果,证明了该方法的有效性和先进性。; 适合人群:具备一定控制理论基础和Matlab编程能力,从事精密控制、智能制造、自动化或相关领域研究的研究生、科研人员及工程技术人员。; 使用场景及目标:①应用于纳米级精密定位系统(如原子力显微镜、半导体制造设备)中的高性能控制设计;②为非线性系统建模与线性化提供一种结合深度学习与现代控制理论的新思路;③帮助读者掌握Koopman算子、RNN建模与模型预测控制的综合应用。; 阅读建议:建议读者结合提供的Matlab代码逐段理解算法实现流程,重点关注数据预处理、RNN结构设计、Koopman观测矩阵构建及MPC控制器集成等关键环节,并可通过更换实际系统数据进行迁移验证,深化对方法泛化能力的理解。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值