排序算法之六 快速排序(Quick Sort)

快速排序是一种由C.R.A.Hoare在1962年提出的高效排序算法,平均时间复杂度为O(nlogn)。通过分治策略进行排序,包括选择基准数、分区操作和递归排序两个子序列。在大多数情况下,快速排序的性能优于其他O(nlogn)算法。下面给出了C/C++的快速排序代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

概述

快速排序是C.R.A.Hoare于1962年提出的一种划分交换排序。它采用了一种分治的策略,通常称其为分治法(Divide-and-ConquerMethod)。在平均状况下,排序n个元素要O(nlogn)次比较。在最坏状况下则需要O(n^2)次比较,但这种状况并不常见。事实上,快速排序通常明显比其他O(nlogn)算法更快,因为它的内部循环可以在大部分的架构上很有效率地被实现出来。

算法描述

1.先从元素序列中取一个数作为基准数。
2.将比这个基准数大的元素全放到它的右边,小于或者等于基准数的元素放到它的左边。这个称为分区(partition)操作。最终的结果就是元素序列分成了如下左右两个区间:
在这里插入图片描述
3.对左右区间递归的进行步骤1,2,直到各区间只有一个元素时结束递归操作,这时整个元素序列就已经完成排序了。

快速排序C/C++代码如下:

void Swap(int arr[], int i, int j)
{
    int temp=arr[i];
    arr[i] = arr[j];
    arr[j] = temp;
}

/**
 * 根据基准值调整数组为三个区域,返回基准值所在的位置
 * @param arr
 * @param left
 * @param right
 * @return 基准值所在的位置
 */
int AdjustArray(int arr[], int left, int right)
{
    int left_index=left-1; //记录左区间最后一个元素的位置
    int pivot = arr[right]; //选择最后一个数作为基准值
    for (int i = left; i < right; i++) {
        if (arr[i] <= pivot) {
            Swap(arr, ++left_index, i); //将小于等于基准值的元素放到左区间末尾,剩下的就是大于基准值的元素自动排在右区间
        }
    }
    Swap(arr, left_index + 1, right); //将基准值与右区间的第一个元素交换,该操作可能会把后面元素的稳定性打乱,所以快速排序是不稳定的算法。
    return left_index + 1;
}
/**
 * 快速排序
 * 最差时间复杂度 当每次选取的基准都是最大或最小的元素,导致每次只划分出了一个分区,需要进行n-1次划分才能结束递归,时间复杂度为O(n^2)
 * 最优时间复杂度 每次选取的基准都是中位数,这样每次都均匀的划分出两个分区,只需要logN次划分就能结束递归,时间复杂度为O(nlogN)
 * 平均时间复杂度 O(nlogn)
 * 空间复杂度     主要是递归造成的栈空间的使用(用来保存left和right等局部变量),取决于递归树的深度,一般为O(logn),最差为O(n)
 * 稳定性         不稳定
 * @param arr
 * @param left
 * @param right
 */
void QuickSort(int arr[], int left, int right) {
    if(left==right || left>right || left<0 || right <0)return;

    int pivot_index = AdjustArray(arr, left, right); //调整基准值在元素序列中的位置
    QuickSort(arr, left, pivot_index-1);             //对左区间进行快速排序
    QuickSort(arr, pivot_index + 1, right);          //对右区间进行快速排序
}

内容概要:本文详细比较了GPU、TPU专用AI芯片在大模型推理优化方面的性能、成本及适用场景。GPU以其强大的并行计算能力和高带宽显存,适用于多种类型的神经网络模型和计算任务,尤其适合快速原型开发和边缘计算设备。TPU专为机器学习设计,擅长处理大规模矩阵运算密集型任务,如Transformer模型的推理,具有高吞吐量和低延迟特性,适用于自然语言处理和大规模数据中心的推理任务。专用AI芯片通过高度定制化架构,针对特定神经网络模型进行优化,如卷积神经网络(CNN),在处理特定任务时表现出色,同时具备低功耗和高能效比的优势,适用于边缘计算设备。文章还介绍了各自的优化工具和框架,如CUDA、TensorRT、TPU编译器等,并从硬件成本、运营成本和开发成本三个角度进行了成本对比。 适合人群:从事人工智能、深度学习领域的研究人员和技术人员,尤其是对大模型推理优化感兴趣的读者。 使用场景及目标:①帮助读者理解GPU、TPU和专用AI芯片在大模型推理中的优缺点;②为选择适合的硬件平台提供参考依据,以实现最优的推理性能和成本效益;③介绍各种优化工具和框架,帮助开发者高效部署和优化模型。 其他说明:本文不仅涵盖了硬件架构特性,还深入探讨了优化技术和应用场景,旨在为读者提供全面的技术参考。在选择硬件平台时,需综合考虑具体任务需求、预算限制及开发资源等因素。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值