【矩阵快速幂 && 状压dp】hdu-6185 Covering

Problem Description

给你一个4×N的矩阵,你可以填1×2的矩阵或者2×1的矩阵,填满有多少种方案,需要取mod。

思路

POJ - 3420 和这题可以说是一种题,但是代码使用在这题上面超时,很不能理解,后面学习了网上的做法,先找出递推关系,在矩阵快速幂,别人的速度能在1000ms以内,我的居然2000ms。有知道的大佬可以指出为什么。

//ac代码,为什么会跑到2000ms不能理解
#include<cstdio>
#include<cstring>
using namespace std;
#define mod 1000000007
struct node
{
    long long a[4][4];
};
long long n;
node res, ans;
void init()//初始化
{
    res.a[0][0] = 36;
    res.a[1][0] = 11;
    res.a[2][0] = 5;
    res.a[3][0] = 1;
    memset(ans.a, 0, sizeof(ans.a));
    ans.a[0][0] = 1;
    ans.a[0][1] = 5;
    ans.a[0][2] = 1;
    ans.a[0][3] = -1;
    ans.a[1][0] = ans.a[2][1] = ans.a[3][2] = 1;
}
node mul(node x, node y)//矩阵相乘
{
    int i, j, k;
    node sum;
    for(i = 0; i < 4; i++)
    {
        for(j = 0; j < 4; j++)
        {
            sum.a[i][j] = 0;
            for(k = 0; k < 4; k++)
            {
                sum.a[i][j] += ((x.a[i][k] + mod) % mod * (y.a[k][j] + mod) % mod) % mod;
                sum.a[i][j] += mod;
                sum.a[i][j] %= mod;
            }
        }
    }
    return sum;
}
node Pow(node t, long long m)//矩阵快速幂
{
    node sum;
    int i;
    memset(sum.a,0,sizeof(sum.a));
    for (i=0;i<4;i++)
        sum.a[i][i]=1;
    while(m)
    {
        if(m & 1) sum = mul(sum, t);
        t = mul(t, t);
        m >>= 1;
    }
    return sum;
}
int main()
{
    init();
    node temp;
    while(~scanf("%lld", &n))
    {
        if(n <= 4)
        {
            printf("%lld\n", res.a[4 - n][0]);
            continue;
        }
        temp = Pow(ans, n - 4);
        temp = mul(temp, res);
        printf("%lld\n", temp.a[0][0]);
    }
    return 0;
}
//超时代码
#include<cstdio>
#include<cstring>
using namespace std;
#define mod 1000000007
struct node
{
    long long a[16][16];
};
node c;
long long n;
void dfs(int l, int now, int pre)
{
    if(l > 4) return;
    if(l == 4)
    {
        c.a[pre][now]++;
        return ;
    }
    dfs(l + 2, (now<<2)|3, (pre<<2)|3);
    dfs(l + 1, now<<1, (pre<<1)|1);
    dfs(l + 1, (now<<1)|1, pre<<1);
}
node mul(node x, node y)
{
    node ans;
    int i, j, k;
    for(i = 0; i < 16; i++)
    {
        for(j = 0; j < 16; j++)
        {
            ans.a[i][j] = 0;
            for(k = 0; k < 16; k++)
            {
                ans.a[i][j] += x.a[i][k] * y.a[j][k];
                ans.a[i][j] %= mod;
            }
        }
    }
    return ans;
}
node sm(node x, long long m)
{
    node ans;
    memset(ans.a, 0, sizeof(ans.a));
    for(int i = 0; i < 16; i++) ans.a[i][i] = 1;
    while(m)
    {
        if(m & 1) ans = mul(ans, x);
        x = mul(x, x);
        m = m>>1;
    }
    return ans;
}
int main()
{
    memset(c.a, 0, sizeof(c.a));
    dfs(0, 0, 0);
    while(~scanf("%lld", &n))
    {
        node ans = sm(c, n);
        printf("%lld\n", ans.a[15][15]);
    }
    return 0;
}
内容概要:本文介绍了基于SMA-BP黏菌优化算法优化反向传播神经网络(BP)进行多变量回归预测的项目实例。项目旨在通过SMA优化BP神经网络的权重和阈值,解决BP神经网络易陷入局部最优、收敛速度慢及参数调优困难等问题。SMA算法模拟黏菌寻找食物的行为,具备优秀的全局搜索能力,能有效提高模型的预测准确性和训练效率。项目涵盖了数据预处理、模型设计、算法实现、性能验证等环节,适用于多变量非线性数据的建模和预测。; 适合人群:具备一定机器学习基础,特别是对神经网络和优化算法有一定了解的研发人员、数据科学家和研究人员。; 使用场景及目标:① 提升多变量回归模型的预测准确性,特别是在工业过程控制、金融风险管理等领域;② 加速神经网络训练过程,减少迭代次数和训练时间;③ 提高模型的稳定性和泛化能力,确保模型在不同数据集上均能保持良好表现;④ 推动智能优化算法与深度学习的融合创新,促进多领域复杂数据分析能力的提升。; 其他说明:项目采用Python实现,包含详细的代码示例和注释,便于理解和二次开发。模型架构由数据预处理模块、基于SMA优化的BP神经网络训练模块以及模型预测与评估模块组成,各模块接口清晰,便于扩展和维护。此外,项目还提供了多种评价指标和可视化分析方法,确保实验结果科学可信。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值