kmp模板

 我的习惯写法, 自己复习用:
#include<cstdio>
#include<cstring>
#define N 1005
char a[N], b[N];
int d1, d2;
int next[N];

void Get_next(){
    int i, j;
    i=1, j=0;
    next[1]=0;
    while(j<d2){
        if(j==0||b[i]==b[j]){
            i++;
            j++;
            if(b[i]!=b[j]){
                next[i]=j;
            }
            else {
                next[i]=next[j];
            }
        }
        else {
            j=next[j];
        }
    }
}

int kmp(){
    int i=0, j=0, cnt=0;
    while(i<=d1){
        if(j==0||a[i]==b[j]){
            if(j==d2){             //cnt++;j=0;   子串匹配主串的个数
                return i-j+1;       //返回的是子串在主串中匹配的第一个位置;
            }
            i++;
            j++;
        }
        else j=next[j];
    }
    return -1;    //无匹配则返回-1;
      //return cnt;
}

int main(){
    scanf("%s%s", a+1, b+1);
    d1=strlen(a+1);           //注意在a[1]出开始读入;a[1]处开始计算;
    d2=strlen(b+1);
    Get_next();
    printf("%d\n", kmp());
}
背模板,背模板..............


下面是再次整理的:
#include<cstdio>
#include<cstring>
#define MAX 1000000
char a[MAX], b[MAX];
int d1, d2;
int next[MAX];

void get_next()
{
    int i, j;
    i=0, j=-1;
    next[0]=-1;    //数组从0开始,之前是从1开始
    while(i<d2)
    {
        if(j==-1||b[i]==b[j])
        {
            i++;
            j++;
            if(b[i]!=b[j])
            {
                next[i]=j;
            }
            else next[i]=next[j];
        }
        else j=next[j];    //j进行回溯,
    }
}

int kmp()
{
    int i=0, j=0, cnt=0;
    while(i<=d1)
    {
        if(j==-1||a[i]==b[j])
        {
            i++;
            j++;
            if(j==d2)
            {
                cnt++;
               // j=0;  计算不重复匹配时加上;如aaaaaa中aa有三个;
            }


        }
        else j=next[j];   //j进行回溯
    }
    return cnt;
}

int main()
{
    int t;
    scanf("%d", &t);
    for(int i=0; i<t; i++)
    {
        scanf("%s%s", (b), (a));        //由于数组从0开始,这里改了.
        d1=strlen(a);
        d2=strlen(b);
        get_next();
        printf("%d\n", kmp());


    }
}
和之前稍有不同,建议用下面的模板.
深度学习作为人工智能的关键分支,依托多层神经网络架构对高维数据进行模式识别与函数逼近,广泛应用于连续变量预测任务。在Python编程环境中,得益于TensorFlow、PyTorch等框架的成熟生态,研究者能够高效构建面向回归分析的神经网络模型。本资源库聚焦于通过循环神经网络及其优化变体解决时序预测问题,特别针对传统RNN在长程依赖建模中的梯度异常现象,引入具有门控机制的长短期记忆网络(LSTM)以增强序列建模能力。 实践案例涵盖从数据预处理到模型评估的全流程:首先对原始时序数据进行标准化处理与滑动窗口分割,随后构建包含嵌入层、双向LSTM层及全连接层的网络结构。在模型训练阶段,采用自适应矩估计优化器配合早停策略,通过损失函数曲线监测过拟合现象。性能评估不仅关注均方根误差等量化指标,还通过预测值与真实值的轨迹可视化进行定性分析。 资源包内部分为三个核心模块:其一是经过清洗的金融时序数据集,包含标准化后的股价波动记录;其二是模块化编程实现的模型构建、训练与验证流程;其三是基于Matplotlib实现的动态结果展示系统。所有代码均遵循面向对象设计原则,提供完整的类型注解与异常处理机制。 该实践项目揭示了深度神经网络在非线性回归任务中的优势:通过多层非线性变换,模型能够捕获数据中的高阶相互作用,而Dropout层与正则化技术的运用则保障了泛化能力。值得注意的是,当处理高频时序数据时,需特别注意序列平稳性检验与季节性分解等预处理步骤,这对预测精度具有决定性影响。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值