冒泡--选择--插入--希尔排序

本文详细介绍了五种基本排序算法:冒泡排序、鸡尾酒排序、选择排序、插入排序及希尔排序,并提供了每种算法的C++实现代码。通过对比不同算法的时间复杂度,帮助读者理解各种排序方法的特点。
#include <cstdlib>
#include <iostream>
#include <ctime>

using namespace std;

template <typename T>
void print(const T *A, int n)
{
	for(int i=0; i<n; i++)
		cout << A[i] << " ";
	cout << endl;
}

template<typename T>
void swapN(T &a, T &b)
{
	T tmp = a;
	a = b;
	b = tmp;
}

// 冒泡排序: 每次循环总是将最大元素移到队尾: O(n^2),稳定的排序算法
template<typename T>
void bubbleSort(T *A, int n)
{
	for(int i=0; i<n-1; i++)
	{
		for(int j=0; j<n-i-1; j++)
		{
			if(A[j] > A[j+1])
			{
				swapN(A[j],A[j+1]);
			}
		}
	}
}

// 鸡尾酒排序:冒泡排序的改进,第一轮,从小到大,第二轮,从大到小,循环: O(n^2)
template<typename T>
void cocktailSort(T *A, int n)
{
	int left=0;
	int right = n-1;
	while(left<right)
	{
		for(int i=left; i<right; i++)
		{
			if(A[i] > A[i+1])
				swapN(A[i],A[i+1]);
		}
		right--;
		for(int i=right; i>left; i--)
		{
			if(A[i] < A[i-1])
				swapN(A[i],A[i-1]);
		}
		left++;
	}
}

// 选择排序:每次从剩余的元素中找出最大的元素与队尾元素交换: O(n^2), 不稳定的排序算法
template <typename T>
void selectSort(T *A, int n)
{
	for(int i=0; i<n-1; i++)
	{
		int min=i;
		for(int j=i+1; j<n; j++)
		{
			if(A[j]<A[min])
				min = j;
		}

		if( min!= i)
			swapN(A[min],A[i]);
	}
}

// 插入排序: 左手持牌,右手的牌倒序遍历插入, O(n^2), 最好情况能到O(n)

template<typename T>
void insertSort(T *A, int n)
{
	for(int i=1; i<n; i++)
	{
		T cur = A[i];
		int j;
		for(j=i-1; j>=0; j--)
		{
			if(A[j] > cur)
			{
				A[j+1] = A[j];   // 后移操作。。。
			}else
			{
				break;
			}
		}
		A[j+1] = cur;   // 找到要插入的位置进行插入
	}
}

// 希尔排序:插入排序的一种高效改进,按间隔h一次执行插入排序,使得原始数组变得越来越有序,
// h逐渐递减到1,变成正常的插入排序,插入排序对于大部分有序的数列更有效: 不稳定的排序: O(nlogn)~O(n^2)
template<typename T>
void shellSort(T *A, int n)
{
	int h=0;
	while( h<=n )
	{
		h = 3*h + 1;   // 生成间隔h
	}
	while( h>=1 )
	{
		// 完成间隔为 h 子序列的插入排序
		for(int i=h; i<n; i+=h)
		{
			T cur = A[i];
			int j;
			for(j = i-h; j>=0; j-=h)
			{
				if(A[j]>cur)
					A[j+h] = A[j];
				else
					break;
			}
			A[j+h] = cur;
		}
		h = (h-1)/3;   // 递减间隔
	}
}

int main()
{
	int n;
	while(cin>>n)
	{
		int *A = new int[n];
		srand(time(NULL));
		for(int i=0; i<n; i++)
			A[i] = rand()%100;

		print(A,n);
		
		//bubbleSort(A,n);
		//cocktailSort(A,n);
		//selectSort(A,n);
		//insertSort(A,n);
		shellSort(A,n);
		print(A,n);

		delete[] A;
	}
	return 0;
}

MATLAB代码实现了一个基于多种智能优化算法优化RBF神经网络的回归预测模型,其核心是通过智能优化算法自动寻找最优的RBF扩展参数(spread),以提升预测精度。 1.主要功能 多算法优化RBF网络:使用多种智能优化算法优化RBF神经网络的核心参数spread。 回归预测:对输入特征进行回归预测,适用于连续值输出问题。 性能对比:对比不同优化算法在训练集和测试集上的预测性能,绘制适应度曲线、预测对比图、误差指标柱状图等。 2.算法步骤 数据准备:导入数据,随机打乱,划分训练集和测试集(默认7:3)。 数据归一化:使用mapminmax将输入和输出归一化到[0,1]区间。 标准RBF建模:使用固定spread=100建立基准RBF模型。 智能优化循环: 调用优化算法(从指定文件夹中读取算法文件)优化spread参数。 使用优化后的spread重新训练RBF网络。 评估预测结果,保存性能指标。 结果可视化: 绘制适应度曲线、训练集/测试集预测对比图。 绘制误差指标(MAE、RMSE、MAPE、MBE)柱状图。 十种智能优化算法分别是: GWO:灰狼算法 HBA:蜜獾算法 IAO:改进天鹰优化算法,改进①:Tent混沌映射种群初始化,改进②:自适应权重 MFO:飞蛾扑火算法 MPA:海洋捕食者算法 NGO:北方苍鹰算法 OOA:鱼鹰优化算法 RTH:红尾鹰算法 WOA:鲸鱼算法 ZOA:斑马算法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值