HDU 1711 Number Sequence(KMP入门)

本文探讨了一种使用KMP算法解决给定序列匹配问题的方法,包括序列预处理、匹配过程及实现细节。针对特定输入数据,详细阐述了如何优化算法性能并求解目标K值。

Number Sequence

Time Limit: 10000/5000 MS (Java/Others)    Memory Limit: 32768/32768 K (Java/Others)
Total Submission(s): 6786    Accepted Submission(s): 3084


Problem Description
Given two sequences of numbers : a[1], a[2], ...... , a[N], and b[1], b[2], ...... , b[M] (1 <= M <= 10000, 1 <= N <= 1000000). Your task is to find a number K which make a[K] = b[1], a[K + 1] = b[2], ...... , a[K + M - 1] = b[M]. If there are more than one K exist, output the smallest one.
 

Input
The first line of input is a number T which indicate the number of cases. Each case contains three lines. The first line is two numbers N and M (1 <= M <= 10000, 1 <= N <= 1000000). The second line contains N integers which indicate a[1], a[2], ...... , a[N]. The third line contains M integers which indicate b[1], b[2], ...... , b[M]. All integers are in the range of [-1000000, 1000000].
 

Output
For each test case, you should output one line which only contain K described above. If no such K exists, output -1 instead.
 

Sample Input
  
2 13 5 1 2 1 2 3 1 2 3 1 3 2 1 2 1 2 3 1 3 13 5 1 2 1 2 3 1 2 3 1 3 2 1 2 1 2 3 2 1
 

Sample Output
  
6 -1
 

Source
 
  hdu kmp入门题,一开始看到这个题目,看了数据范围,就直接否定了自己最开始想到的算法O(m*n)。想着用stl string中的find,网上查了一下string中find时间复杂度是O(m*n)的,接下来就是补基础,看《算法导论》,一知半解的,根据书上的伪代码勉强AC了,跑了500ms,膜拜一下跑进100ms的牛牛,希望能得到各路大虾们的指点,俺也优化优化。
#include <stdio.h>
#define nMax 1000002
int a[nMax],b[nMax];//a为文本,b为模式串 
int s[nMax]; //前缀函数 
int n,m;
void compute(){//计算前缀函数 
	int k=0,q;
	s[1]=0;
	for(q=2;q<=m;q++){
		while(k>0 && b[k+1]!=b[q]){
			k=s[k];
		}
		if(b[k+1]==b[q])
			k=k+1;
		s[q]=k;		
	}
}

void kmpmatch(){
	int q=0,i,j;//q记录已经匹配到的模式串中的个数 
	for(i=1;i<=n;i++){//从左至右逐个匹配文本中的字符 
		while(q>0&&b[q+1]!=a[i]){
			q=s[q];				//下一个字符未能匹配,通过前缀函数计算下个文本匹配的位置			
		}
		if(b[q+1]==a[i])//下一个字符能匹配 
			q=q+1;
		if(q==m){//模式串中字符全部匹配 
			printf("%d\n",i-m+1);
			return;			
		}								
	}
	printf("-1\n");
	return;	
}
int main(int argc, char *argv[]){
	int cas,i,j;
	scanf("%d",&cas);
	while(cas--){
		scanf("%d%d",&n,&m);
		for(i=1; i<=n;i++){
	 		scanf("%d",&a[i]);
	 	}
	 	for(i=1; i<=m;i++){
	 		scanf("%d",&b[i]);
	 	}
	 	compute();
	 	kmpmatch();
	} 
	return 0;
}


MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值