时间复杂度O(N)

我们假设计算机运行一行基础代码需要执行一次运算。

int aFunc(void) {
    printf("Hello, World!\n");      //  需要执行 1 次
    return 0;       // 需要执行 1 次
}

那么上面这个方法需要执行 2 次运算

int aFunc(int n) {
    for(int i = 0; i<n; i++) {         // 需要执行 (n + 1) 次
        printf("Hello, World!\n");      // 需要执行 n 次
    }
    return 0;       // 需要执行 1 次
}

这个方法需要 (n + 1 + n + 1) = 2n + 2 次运算。
我们把 算法需要执行的运算次数 用 输入大小n 的函数 表示,即 T(n) 。

f(n)表示 算法执行需要的时间的增长速度 f(n) ==速度
例如:f(n) = n^2
O(f(n)) = O(n^2) 时间复杂度为n^2

算法的时间复杂度,用来度量算法的运行时间,记作: T(n) = O(f(n))。它表示随着 输入大小n 的增大,算法执行需要的时间的增长速度可以用 f(n) 来描述。

那么当我们拿到算法的执行次数函数 T(n) 之后怎么得到算法的时间复杂度呢?

1、我们知道常数项对函数的增长速度影响并不大,所以当 T(n) = c,c 为一个常数的时候,我们说这个算法的时间复杂度为 O(1);如果 T(n) 不等于一个常数项时,直接将常数项省略。

比如 第一个 Hello, World 的例子中 T(n) = 2,所以我们说那个函数(算法)的时间复杂度为 O(1)。 T(n) = n

  • 29,此时时间复杂度为 O(n)。

2、我们知道高次项对于函数的增长速度的影响是最大的。n^3 的增长速度是远超 n^2 的,同时 n^2 的增长速度是远超 n 的。 同时因为要求的精度不高,所以我们直接忽略低此项。

比如 T(n) = n^3 + n^2 + 29,此时时间复杂度为 O(n^3)。

3、因为函数的阶数对函数的增长速度的影响是最显著的,所以我们忽略与最高阶相乘的常数。

比如 T(n) = 3n^3,此时时间复杂度为 O(n^3)。

综合起来:如果一个算法的执行次数是 T(n),那么只保留最高次项,同时忽略最高项的系数后得到函数 f(n),此时算法的时间复杂度就是 O(f(n))。为了方便描述,下文称此为 大O推导法。

由此可见,由执行次数 T(n) 得到时间复杂度并不困难,很多时候困难的是从算法通过分析和数学运算得到 T(n)。对此,提供下列四个便利的法则,这些法则都是可以简单推导出来的,总结出来以便提高效率。

1、对于一个循环,假设循环体的时间复杂度为 O(n),循环次数为 m,则这个
循环的时间复杂度为 O(n×m)。

void aFunc(int n) {
    for(int i = 0; i < n; i++) {         // 循环次数为 n
        printf("Hello, World!\n");      // 循环体时间复杂度为 O(1)
    }
}

此时时间复杂度为 O(n × 1),即 O(n)。

2、对于多个循环,假设循环体的时间复杂度为 O(n),各个循环的循环次数分别是a, b, c…,则这个循环的时间复杂度为 O(n×a×b×c…)。分析的时候应该由里向外分析这些循环。

void aFunc(int n) {
    for(int i = 0; i < n; i++) {         // 循环次数为 n
        for(int j = 0; j < n; j++) {       // 循环次数为 n
            printf("Hello, World!\n");      // 循环体时间复杂度为 O(1)
        }
    }
}

此时时间复杂度为 O(n × n × 1),即 O(n^2)。

3、对于顺序执行的语句或者算法,总的时间复杂度等于其中最大的时间复杂度。

void aFunc(int n) {
    // 第一部分时间复杂度为 O(n^2)
    for(int i = 0; i < n; i++) {
        for(int j = 0; j < n; j++) {
            printf("Hello, World!\n");
        }
    }
    // 第二部分时间复杂度为 O(n)
    for(int j = 0; j < n; j++) {
        printf("Hello, World!\n");
    }
}

此时时间复杂度为 max(O(n^2), O(n)),即 O(n^2)。

4、对于条件判断语句,总的时间复杂度等于其中 时间复杂度最大的路径 的时间复杂度。

void aFunc(int n) {
    if (n >= 0) {
        // 第一条路径时间复杂度为 O(n^2)
        for(int i = 0; i < n; i++) {
            for(int j = 0; j < n; j++) {
                printf("输入数据大于等于零\n");
            }
        }
    } else {
        // 第二条路径时间复杂度为 O(n)
        for(int j = 0; j < n; j++) {
            printf("输入数据小于零\n");
        }
    }
}

此时时间复杂度为 max(O(n^2), O(n)),即 O(n^2)。

时间复杂度分析的基本策略是:从内向外分析,从最深层开始分析。如果遇到函数调用,要深入函数进行分析。

最后,我们来练习一下

一. 基础题
求该方法的时间复杂度

void aFunc(int n) {
    for (int i = 0; i < n; i++) {
        for (int j = i; j < n; j++) {
            printf("Hello World\n");
        }
    }
}

参考答案:
当 i = 0 时,内循环执行 n 次运算,当 i = 1 时,内循环执行 n - 1 次运算……当 i = n - 1 时,内循环执行 1 次运算。
所以,执行次数 T(n) = n + (n - 1) + (n - 2)……+ 1 = n(n + 1) / 2 = n^2 / 2 + n / 2。
根据上文说的 大O推导法 可以知道,此时时间复杂度为 O(n^2)。

二. 进阶题
求该方法的时间复杂度

void aFunc(int n) {
    for (int i = 2; i < n; i++) {
        i *= 2;
        printf("%i\n", i);
    }
}

参考答案:
假设循环次数为 t,则循环条件满足 2^t < n。
可以得出,执行次数t = log(2)(n),即 T(n) = log(2)(n),可见时间复杂度为 O(log(2)(n)),即 O(log n)。

三. 再次进阶
求该方法的时间复杂度

long aFunc(int n) {
    if (n <= 1) {
        return 1;
    } else {
        return aFunc(n - 1) + aFunc(n - 2);
    }
}

参考答案:
显然运行次数,T(0) = T(1) = 1,同时 T(n) = T(n - 1) + T(n - 2) + 1,这里的 1 是其中的加法算一次执行。
显然 T(n) = T(n - 1) + T(n - 2) 是一个斐波那契数列,通过归纳证明法可以证明,当 n >= 1 时 T(n) < (5/3)^n,同时当 n > 4 时 T(n) >= (3/2)^n。
所以该方法的时间复杂度可以表示为 O((5/3)^n),简化后为 O(2^n)。
可见这个方法所需的运行时间是以指数的速度增长的。如果大家感兴趣,可以试下分别用 1,10,100 的输入大小来测试下算法的运行时间,相信大家会感受到时间复杂度的无穷魅力。

<think>嗯,时间复杂度O(n),这个概念听起来挺常见的,但具体是什么意思呢?让我仔细想想。好像之前学过一些算法的基础知识,可能和算法的执行时间有关吧? 首先,时间复杂度是用来衡量算法运行时间随着输入规模增长而增长的速度的。那O(n)里的n应该是指输入规模,比如数组的元素个数或者链表节点的数量。O(n)表示算法的运行时间输入规模n成线性关系,对吧? 举个例子可能会有帮助。比如说,遍历一个数组,对每个元素进行一次操作,这样的情况下,无论数组有多大,操作次数都和数组的长度n成正比。所以这样的算法时间复杂度就是O(n)。那如果是循环嵌套的话,比如两层循环,是不是时间复杂度就变成O()了?这时候O(n)就比O()要高效很多,尤其是在n很大的时候。 不过,O(n)具体是怎么计算出来的呢?是不是要去掉常数项和低次项?比如,如果一个算法的时间是3n + 5,那么时间复杂度还是O(n),因为常数项和系数在大n的情况下变得不那么重要了。也就是说,大O表示法关注的是增长趋势,而不是具体的运行时间。 可能还需要区分一下不同的时间复杂度类别。比如,O(1)是常数时间,不管输入多大,时间都是固定的。O(log n)是对数时间,比如二分查找,效率比O(n)更高。而O(n)则处于中间位置,比O(1)和O(log n)慢,但比O()快很多。 有没有例外的情况呢?比如,虽然算法大部分情况下是O(n),但在某些特殊情况下可能有不同的表现。比如,线性搜索最好情况下是O(1)(第一个元素就是目标),最坏和平均情况下是O(n)。但通常我们讨论时间复杂度时,可能更关注最坏情况或者平均情况,而大O通常指的是最坏情况? 不过,用户的问题只是要介绍O(n),所以可能不需要深入讨论其他情况,但需要明确O(n)的定义和应用场景。比如,常见的线性时间算法包括遍历数组、查找未排序的链表中的元素、计数排序等。 另外,可能需要解释为什么线性时间复杂度被认为是相对高效的。对于较大的数据集,O(n)算法的执行时间会随着n线性增长,而不会像高阶复杂度那样急剧上升。这使得O(n)算法在处理大规模数据时仍然可行,而高阶复杂度的算法可能变得不切实际。 总结来说,O(n)表示算法的执行时间输入规模n成正比,是一种线性时间复杂度,常见于需要遍历整个输入数据的算法中。理解这一点有助于在设计和选择算法时,根据数据规模来预估性能表现。</think>### 时间复杂度$O(n)$的逐步解释 **1. 基本概念** 时间复杂度$O(n)$表示算法的执行时间输入规模$n$成**正比**。这里的$n$通常指输入数据的数量,例如数组元素个数、链表节点数等。 **2. 核心特点** - **线性增长**:若输入规模$n$扩大2倍,执行时间也大约扩大2倍。 - **单层循环**:通常出现在需要**遍历整个输入**的算法中,例如遍历数组、链表等。 **3. 计算规则** - **忽略常数和低阶项**:例如,若实际时间为$3n + 5$,时间复杂度仍记为$O(n)$。 - **关注最高阶项**:大O表示法仅保留对时间影响最大的项。 **4. 示例** **例1:遍历数组求和** ```python def sum_array(arr): total = 0 for num in arr: # 循环次数 = n total += num return total ``` - 每个元素访问一次,操作次数为$n$,时间复杂度为$O(n)$。 **例2:查找未排序数组中的元素** ```python def linear_search(arr, target): for i in range(len(arr)): # 最坏情况下循环n次 if arr[i] == target: return i return -1 ``` - 最坏情况下需检查所有$n$个元素,时间复杂度为$O(n)$。 **5. 与其他复杂度对比** | 时间复杂度 | 增长趋势 | 典型算法 | |------------|----------------|----------------------| | $O(1)$ | 常数时间 | 数组索引访问 | | $O(\log n)$| 对数时间 | 二分查找 | | $O(n)$ | 线性时间 | 线性搜索、遍历 | | $O(n^2)$ | 平方时间 | 冒泡排序(最坏情况) | **6. 适用场景** - 数据规模较大但算法需遍历全部元素时(如统计、过滤)。 - 无法利用预先排序或哈希表优化的情况(如未排序数组的搜索)。 **7. 注意事项** - **常数因子影响**:实际应用中,$O(n)$算法的常数因子(如循环内的操作耗时)可能显著影响性能。 - **优化方向**:若需突破$O(n)$,可能需要更高效的数据结构(如哈希表)或算法策略(如分治)。 **总结** 时间复杂度$O(n)$是算法分析中的重要概念,表示执行时间输入规模线性增长。理解它有助于在设计算法时平衡效率与资源消耗。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值