HDU 3374 String Problem (字符串最小表示法+KMP)

探讨了如何解决一个特定的字符串问题,即在给定一个长度不超过1e6的字符串时,找到其中字典序最小和最大的串,并计算它们在环状字符串中的出现次数。解决方案包括使用字符串的最小表示法确定最小、最大字典序的串,然后通过KMP算法进行匹配。

String Problem

Time Limit: 2000/1000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)
Total Submission(s): 4951    Accepted Submission(s): 2014


 

Problem Description

Give you a string with length N, you can generate N strings by left shifts. For example let consider the string “SKYLONG”, we can generate seven strings:
String Rank 
SKYLONG 1
KYLONGS 2
YLONGSK 3
LONGSKY 4
ONGSKYL 5
NGSKYLO 6
GSKYLON 7
and lexicographically first of them is GSKYLON, lexicographically last is YLONGSK, both of them appear only once.
  Your task is easy, calculate the lexicographically fisrt string’s Rank (if there are multiple answers, choose the smallest one), its times, lexicographically last string’s Rank (if there are multiple answers, choose the smallest one), and its times also.

 

 

Input

  Each line contains one line the string S with length N (N <= 1000000) formed by lower case letters.

 

 

Output

Output four integers separated by one space, lexicographically fisrt string’s Rank (if there are multiple answers, choose the smallest one), the string’s times in the N generated strings, lexicographically last string’s Rank (if there are multiple answers, choose the smallest one), and its times also.

 

 

Sample Input


 

abcder aaaaaa ababab

 

 

Sample Output


 

1 1 6 1 1 6 1 6 1 3 2 3

题意:

给你一个字符串(长度不超过1e6),字符串是一个环,让你求其中字典序最小和最大的,并求其出现的次数(在整个环中)。

思路:

字符串的最小表示法求出最小、最大字典序的串,然后kmp跑就行了。

代码:

#include<iostream>
#include<iomanip>
#include<cstring>
#include<cstdio>
#include<algorithm>
#include<map>
#include<queue>
#include<set>
#include<cmath>
#include<stack>
#include<string>
#define ll long long
#define inf 0x3f3f3f3f
using namespace std;
const int maxn=2000010;
char str[maxn];
char s[maxn],p[maxn];
int len;
int n,m,nxt[maxn];
int cnt,as[maxn],ans;
void getfail()
{
    int i=0,j=-1;
    nxt[0]=-1;
    while(i<len)
    {
        if(j==-1||p[i]==p[j])
        {
            i++;j++;
            nxt[i]=j;
        }
        else j=nxt[j];
    }
}
void kmp(int &ans)
{
    int k,i,j;
    getfail();
    i=0;j=0;
    while(i<m)
    {
        if(j==-1||s[i]==p[j])
        {
            i++;j++;
        }
        else j=nxt[j];
        if(j==len) ans++;
    }
}
int find_pos()
{
    int p1=0,p2=1,k=0;
    while(p1<len&&p2<len&&k<len)
    {
        int tmp=str[(p1+k)%len]-str[(p2+k)%len];
        if(!tmp) k++;
        else
        {
            tmp>0?p1+=k+1:p2+=k+1;
            if(p1==p2) p2++;
            k=0;
        }
    }
    return min(p1,p2);
}
int find_pos2()
{
    int p1=0,p2=1,k=0;
    while(p1<len&&p2<len&&k<len)
    {
        int tmp=str[(p1+k)%len]-str[(p2+k)%len];
        if(!tmp) k++;
        else
        {
            tmp<0?p1+=k+1:p2+=k+1;
            if(p1==p2) p2++;
            k=0;
        }
    }
    return min(p1,p2);
}
void go()
{
    int id1,ans1=0,id2,ans2=0;
    int pos=find_pos();
    id1=pos+1;
    int l=0;
    for(int i=pos;i<len+pos;i++)
    {
        p[l++]=str[i%len];
    }
    p[len]='\0';
    kmp(ans1);
    pos=find_pos2();
    id2=pos+1;
    l=0;
    for(int i=pos;i<len+pos;i++)
    {
        p[l++]=str[i%len];
    }
    p[len]='\0';
    kmp(ans2);
    printf("%d %d %d %d\n",id1,ans1,id2,ans2);
}

int main()
{
    int t,i,cas=1;
    while(scanf("%s",s)!=EOF)
    {
        len=strlen(s);
        for(int i=0;i<len;i++)
        {
            str[i]=s[i];
            s[i+len]=s[i];
        }
        str[len]='\0';
        s[2*len-1]='\0';
        m=2*len-1;
        go();
    }
    return 0;
}

 

训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的表示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性表达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值