时间复杂度(下)
最好、最坏情况时间复杂度
同样,我们先看一段代码,你可以尝试先自己分析一下它的时间复杂度:
//n 表示切片arrary的长度
func find(arrary []int,n int,x int) (pos int) {
i := 0
pos := -1
for ;i<n;i++ {
if arrary[i] == x {
pos = i
}
}
return
}
可以看出来,这段代码要事先的功能是,在一个无序的切片中,查找变量x出现的位置。如果没有找到,就返回-1。
按照上次说的分析方法,这段代码的复杂度是O(n),其中,n代表切片的长度。我们在数组中查找一个数据,并不需要
每次都把整个数组都遍历一遍,因为可能中途找到就可以提前结束循环了。所以,我们可以把return放到if语句中去。
那么问题来了,我们优化完之后,这段代码的时间复杂度还是O(n)吗?很显然,我们上次学的内容解决不了这个问题。
因为根据x值的不同,该段代码的时间复杂度也会不同。所以为了表示代码在不同情况下的不同时间复杂度,我们需要引入
三个概念:最好情况时间复杂度、最坏时间复杂度和平均情况时间复杂度。
顾名思义,最好情况时间复杂度就是,在最理想的情况下,执行这段代码的时间复杂度,比如这个例子中,最理想
的情况就是要找的变量x正好是数组的第一个元素。
同理,最坏情况时间复杂度就是,在最糟糕的情况下,执行这段代码的时间复杂度。比如,如果数组中没有要查找的
变量x,我们需要把整个数组都遍历一遍才可以。
平均情况时间复杂度
到此为止,你应该已经掌握了算法复杂度分析的大部分内容了。下面我(作者)要给讲一个更加高级的概念,均摊时间复杂度,以
及它对应