O(1)
O(1)是常量级时间复杂度的一种表示方法,并非只执行一行代码
代码执行时间不是随着n的增大而增大,这样的代码的时间复杂度都是O(1)
通常只要算法中不存在循环、递归,即使代码有很多行,时间复杂度仍是O(1)
②O(logn)、O(nlogn)对数阶时间复杂度
这段代码的第3行是执行次数最多的,只要算出第3行执行的次数,就是整个代码的时间复杂度。
i从1开始取值,每一次循环乘以2.可以看到 i=i*2是一个等比数列
我们只要算出x是多少,就是执行的次数了 2^x=n -->x=log2n,所以时间复杂度应该为O(log2n)
很容易就能看出来,应该是O(log3n)。
但是上面的O(log2n)和O(log3n)可以通过换底公式换成以2为底的对数,且可以忽略系数,所以都记做 O(logn)。
关于O(nlogn),就是把上面的代码在循环执行n遍了。其中归并排序、快速排序的时间复杂度就是O(nlogn)
③O(m+n)、O(m*n)
1. 加法法则(量级最大法则):总复杂度等于量级最大的那段代码的复杂度
同理,sum_2和sum_3分别是 O(n)和O(n^2),对于这三个,我们取量级最大的O(n^2),所以总的时间复杂度就等于量级最大的那段代码的时间复杂度。
2.乘法法则:嵌套代码的复杂度等于嵌套内外代码复杂度的乘积
f()函数的时间复杂度是 T1(n)=O(n),如果先把f()函数看成简单的操作,则cal()函数的时间复杂度是T2(n)=O(n),所以整个cal()函数的时间复杂度是T(n)=T2(n)*T1(n)=O(n*n)=O(n^2)
一个经验规则:
其中c是一个常量,如果一个算法的复杂度为c 、 log2n 、n 、 nlog2 、 n* ,那么这个算法时间效率比较高 ,
如果是2n** ,3n** ,n!,那么稍微大一些的n就会令这个算法不能动了,居于中间的几个则差强人意。