[POJ 3070] Fibonacci (矩阵快速幂)

本文介绍了一种使用矩阵快速幂求解Fibonacci数第k项的方法,通过构造特定矩阵并进行幂运算,可在O(log k)时间内高效求解。文章提供了完整的C++实现代码。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

链接

POJ 3070


题意

求fibonacci数的第k项。


题解

基本上是题目告诉了你一个结论:
矩阵
|1 1|
|1 0|
的k次幂就是
|fibon[k+1] fibon[k]|
|fibon[k] fibon[k-1]|
由于k比较大,所以需要用到矩阵快速幂。
但是这个结论还是比较有用的,可以在logn级求出fibonacci的第k项。


代码
#include <cstdio>
#include <cstring>
#include <iostream>
#include <algorithm>
using namespace std;
const int mod = 10000;
struct fibonmat
{
    int a[2][2];
    fibonmat() { a[0][0] = a[0][1] = a[1][0] = 1, a[1][1] = 0; }
    void clear() { memset(a, 0, sizeof(a)); }
    fibonmat operator*(const fibonmat& b) const
    {
        fibonmat o;
        o.a[0][0] = (a[0][0] * b.a[0][0] + a[0][1] * b.a[1][0]) % mod;
        o.a[0][1] = (a[0][0] * b.a[0][1] + a[0][1] * b.a[1][1]) % mod;
        o.a[1][0] = (a[1][0] * b.a[0][0] + a[1][1] * b.a[1][0]) % mod;
        o.a[1][1] = (a[1][0] * b.a[0][1] + a[1][1] * b.a[1][1]) % mod;
        return o;
    }
    friend fibonmat operator^(fibonmat tmp, int k)
    {
        fibonmat o; o.clear();
        o.a[0][0] = o.a[1][1] = 1;
        while(k)
        {
            if(k & 1) o = o * tmp;
            tmp = tmp * tmp;
            k >>= 1;
        }
        return o;
    }
};
int getKthfibon(int k)
{
    if(0 == k) return 0;
    fibonmat fm;
    fm = fm ^ k;
    return fm.a[0][1];
}
int main()
{
    int n, fi;
    while(cin >> n)
    {
        if(n == -1) break;
        fi = getKthfibon(n);
        cout << fi << endl;
    }
    return 0;
}
内容概要:本文档详细介绍了基于弹性架构搜索(Elastic Architecture Search, EAS)结合Transformer编码器进行多变量时间序列预测的项目实例。项目旨在自动化优化多变量时间序列预测模型结构,提升预测精度与鲁棒性,降低计算资源消耗,实现模型轻量化。通过MATLAB实现,项目采用Transformer编码器的多头自注意力机制,结合EAS的弹性权重共享和分阶段搜索策略,解决了高维多变量时间序列的复杂依赖建模、架构搜索计算资源需求高、模型过拟合、多步预测误差积累、数据异构性与缺失值处理、复杂模型训练收敛等挑战。最终,项目构建了一个高度模块化和可扩展的系统设计,适用于智能制造、能源管理、智慧交通等多个工业场景。 适合人群:具备一定编程基础,对时间序列预测、深度学习及MATLAB有一定了解的研发人员和研究人员。 使用场景及目标:①自动化优化多变量时间序列预测模型结构,提升预测精度与鲁棒性;②降低计算资源消耗,实现模型轻量化;③实现高度模块化与可扩展的系统设计,促进人工智能在工业领域的深度应用;④提供科研与教学的典范案例与工具,探索深度学习架构搜索在时序预测的前沿技术;⑤促进多变量时序数据融合与异质信息处理能力,推动MATLAB深度学习工具箱的应用与扩展。 其他说明:项目不仅聚焦于模型性能提升,更注重计算资源节约和应用落地的可行性。借助弹性架构搜索自动化调参,减少人工经验依赖,加快模型迭代速度,降低开发门槛。结合Transformer编码器的表达能力,显著改善多变量时间序列预测中的长期依赖捕捉和异质数据融合问题,为各类时间序列分析任务提供一种全新的解决方案。项目通过详细的代码实现和注释,帮助用户理解Transformer机制与弹性架构搜索如何协同工作,实现多变量时间序列预测。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值