算法时间复杂度定义:
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,记作:T(n) = O(f(n))。他表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相通,称作算法的时间复杂度。其中f(n)是问题规模n的某个函数。
《大话数据结构》
其实就是数据运行的时间长短,运行时间长复杂度高,运行时间短,复杂度低。
关键是如何去求得这个O(f(n)),专业点就是如何推到大O阶
1.用常数1取代运行时间中的所有加法常数;
2.在修改后的运行次数函数中,只保留最高阶项;
3.如果最高阶项存在且不是1,则去除这个项相乘的常数。
结果就是大O阶
《大话数据结构》
就按照这个步骤套就可以了
例子:
int i,j;
for(i = 0;i < n;i++)
{
for(j = i; j < n; j++)
{};
}
这思路就是一步一步走,i=0时,内循环执行了n次,i=1时,内循环执行了n-1次,。。。当i = n-1时,内循环执行了1次,所以总共是:
n+(n-1)+(n-2)…+1 = n(n-1)/2
套用上面的公式,时间复杂度为:O(n^2)