KMP算法

本文深入讲解了KMP算法的核心思想及应用,通过介绍前缀串和后缀串的概念,展示了如何利用next数组来提高字符串匹配的效率,并给出了详细的代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 基本场景
  • 核心思想
  • 扩展加深

基本概念

KMP算法用于字符串的匹配,假定现在需要在s1中查找s2,暴力解就是直接去遍历查看是否匹配,显然这样的时间复杂度显然是O(MN)的,而字符串通过引入前缀串和后缀串的信息,来进行一个匹配上的加速。个人觉得优秀的算法就是对已经获取的信息减少后续的重复获取,下面就让我们进入KMP算法的核心思想去体会如何有效利用已经获取的信息。

核心思想

  • 前缀串后缀串
    用一个next数组存储前缀串和后缀串的最大长度 求法看下图
    //next数组求法图
    这里写图片描述
  • 为何next数组加速
    显然我们需要next数组的信息为我们加速,具体理解过程看图呗 ^v^
    //利用next数组加速图
    这里写图片描述
    //为何这样加速图
    这里写图片描述
  • 代码演示
    如果上述你没有理解,那就先放下,看代码,同样会有代码的图解,然后结合上述理解
int MyKmp(string s1,string s2) {
    if( s2.size()>s1.size() ) return -1;
    int arr[s2.size()];
    GetNextArray( s2,arr,sizeof(arr)/sizeof(arr[0]) );

    int i=0,j=0;
    while( i<s1.size()&&j<s2.size() ) {
        if( s1[i]==s2[j] ) {  //大家都加加
            i++;
            j++;
        }
        else if( next[j]>0 ) //不相等 但是存在s1的后缀与s2的前缀相等(部分相等)
            j = next[j];
        else {   //大家完全不等
            i++
            j = 0;
        }
    }

    return j==s2.siize()?i-j:-1;
}

//代码图解
这里写图片描述
备注:当当前字符不存在前缀串和后缀串相等时,那么这段区间显然不会相等
这里写图片描述

  • next数组的求法
void GetMaxArray(string s,int* next,int size) {
    if( size==1 ) {
        next[0] = -1;
        return;
    }

    next[0] = -1;
    next[1] = 0;
    int cn = 0,cur = 2;
    while( cur<size ) {
        if( s[cur]-1==s[cn] ) 
            next[cur++] = ++cn;
        else if( next[cn]>0 )
            cn = next[cn];
        else
            next[cur++] = 0;
    }   
}

//next数组
这里写图片描述
next数组这样求取是因为 到达新的位置时 利用前面已有的字符串前后缀信息 看能否追加上去

扩展加深

  • 利用已有字符串向后添加字符,最终生成的字符串包含两个原始串,两个原始串开始位置不一样,求这样的最短串
    eg: abcabc
    添加后:abcabcabc
    思路:算出整体串的最长前缀和最长后缀,追加中间的部分
    这里写图片描述
    显然时next数组的应用,KMP算法的核心就是next数组。
内容概要:本文系统介绍了基于C#(VS2022+.NET Core)与HALCON 24.11的工业视觉测量拟合技术,涵盖边缘提取、几何拟合、精度优化及工业部署全流程。文中详细解析了亚像素边缘提取、Tukey抗噪算法、SVD平面拟合等核心技术,并提供了汽车零件孔径测量、PCB焊点共面性检测等典型应用场景的完整代码示例。通过GPU加速、EtherCAT同步等优化策略,实现了±0.01mm级测量精度,满足ISO 1101标准。此外,文章还探讨了深度学习、量子启发式算法等前沿技术的应用前景。 适合人群:具备一定编程基础,尤其是熟悉C#和HALCON的工程师或研究人员,以及从事工业视觉测量与自动化检测领域的技术人员。 使用场景及目标:①学习如何使用C#和HALCON实现高精度工业视觉测量系统的开发;②掌握边缘提取、抗差拟合、3D点云处理等核心技术的具体实现方法;③了解工业部署中的关键技术,如GPU加速、EtherCAT同步控制、实时数据看板等;④探索基于深度学习和量子计算的前沿技术在工业视觉中的应用。 其他说明:本文不仅提供了详细的理论分析和技术实现,还附有完整的代码示例和实验数据,帮助读者更好地理解和实践。同时,文中提到的硬件选型、校准方法、精度验证等内容,为实际项目实施提供了重要参考。文章最后还给出了未来的技术演进方向和开发者行动建议,如量子-经典混合计算、自监督学习等,以及参与HALCON官方认证和开源社区的建议。
内容概要:本文介绍了基于WOA-GRU-Attention模型的时序数据分类预测项目,旨在提升时序数据分类准确率,实现智能优化,并提供强泛化能力的分类框架。项目背景指出传统机器学习方法难以处理时序数据的复杂特性,而GRU、注意力机制和WOA的结合能有效应对这些问题。文章详细描述了项目的目标与意义,包括提升分类准确率、实现智能优化、推动元启发式算法应用等。同时,文中列出了项目面临的挑战及解决方案,如高维数据特征复杂、超参数调优难度大等。项目模型架构由WOA、GRU和注意力机制三部分组成,通过Python代码示例展示了模型的具体实现,包括模型定义、训练过程和WOA优化算法的核心步骤。; 适合人群:具备一定编程基础,尤其是对深度学习、时序数据分析感兴趣的开发者和研究人员。; 使用场景及目标:① 提升时序数据分类准确率,特别是在金融、医疗、智能制造等领域;② 实现模型训练过程的智能优化,避免传统调参的局限;③ 提供具备强泛化能力的时序数据分类框架,支持多行业多场景应用;④ 推动高性能时序模型的工业应用落地,提高智能系统的响应速度和决策质量。; 其他说明:项目不仅实现了工程应用,还在理论层面对GRU结构与注意力机制的融合进行了系统分析,结合WOA优化过程对模型训练动力学展开研究,促进了深度学习与优化算法交叉研究领域的发展。读者可以通过提供的代码示例和链接进一步了解项目的具体实现和应用场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值