【数据结构】—— 时间复杂度、空间复杂度
算法时间复杂度定义
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。
这样用大写O()来体现算法时间复杂度的记法,我们称之为大O记法。一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为 O(n),O(1),O()。我们分别给它们取了非官方的名称,O(1)叫常数阶、O(n)叫线性阶、O()叫平方阶,当然,还有其他的一些阶,我们之后会介绍。
推导大O阶方法
那么如何分析一个算法的时间复杂度呢?即如何推导大0阶呢?我们给出了下面的推导方法,基本上,这也就是总结前面我们举的例子。
推导大 O 阶:
- 用常数1取代运行时间中的所有加法常数。
- 在修改后的运行次数函数中,只保留最高阶项,
- 如果最高阶项存在且不是1,则去除与这个项相乘的常数。
经过上述规则得到的结果就是大 O 阶。哈,仿佛是得到了游戏攻略一样,我们好像已经得到了一个推导算法时间复杂度万能公式。可事实上,分析一个算法的时间复杂度,没有这么简单,我们还需要多看几个例子。
常数阶
首先顺序结构的时间复杂度。下面这个代码,为什么时间复杂度不是 O(3),而是 O(1)。
int i = 1, j = 2, sum = 0;/*执行一次 */
sum= i +j;/*执行一次 */
printf("%d",sum);/* 执行一次 */
这个算法的运行次数函数是f(n)=3。根据我们推导大O阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。另外、我们试想一下,如果这个代码中的printf语句执行100次,它的时间复杂度会不会发生改变?实际上无论n为多少,上面的两段代码就是执行3次和102次的差异。这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。
【注意】:不管这个常数是多少,我们都将它记作O(1),而不是O(3)、O(102)等任何数字。
对于分支结构(if、switch语句)而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。
线性阶
线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次
for(int i = 0; i < n; ++i)
sum += i;
对数阶
下面这段代码,时间复杂度又是多少?
int cnt = 1;
while(cnt < n)
cnt *= 2;
由于每次cnt乘2之后,就距离n接近一半。也就是说,有多少个2相乘之后大于n。由于两边取对数得到,。在时间复杂度上我们常用O(logn)代表对数阶。
同样,下面代码的时间复杂度为多少?
while(left < right)
{
int mid = left + right >> 1;
if(target < num[mid])
right = mid - 1;
else if(target > num[mid])
left = mid;
else
break;
}
这是一个二分查找的伪代码。现在left位于num的首位,right位于num的最后一个元素。mid是left 和 right它们的中点,通过if语句来使查找的范围缩小一半。同上一个例子一样时间复杂度为O(logn)
平方阶
下面例子是循环嵌套。它的内循环刚才已经分析过了。时间复杂度为O(n)。
for(int i = 0; i <n; ++i)
for(int j = 0; j < n; ++j)
sum += j;
由于外循环,不过是内循环这个时间复杂度O(n)的语句,在循环n次。所以这段代码的时间复杂度为O()。那如果外循环改成m的话,时间复杂度为O(m x n)。
for(int i = 0; i < m; ++i)
for(int j = 0; j < n; ++j)
sum += j;
所以我们可以得出,循环的时间复杂度等于循环体复杂度乘以该循环运行的次数。
那么,下面这个循环嵌套,它的时间复杂度为多少?
for(int i = 0; i <n; ++i)
for(int j = i; j < n; ++j) //注意j = i
sum += j;
由于当i=0时,内循环执行了n次,当i=1时,执行了n-1次,…当i-n-1时,执行了1次。所以总的执行次数为n+(n-1)+(n-2)+…+1 = n * (n + 1) / 2(等差数列的求和公式)。用我们推导大 O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留 /2;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为 0()。
从这个例子,我们也可以得到一个经验,其实理解大O推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识和能力,所以想考研的朋友,要想在求算法时间复杂度这里不失分,可能需要强化你的数学,特别是数列方面的知识和解题能力。
常见的时间复杂度
常见的时间复杂度如下表所示。
常用的时间复杂度所耗费的时间从小到大依次是:
O(1) <O(logn )< О(n)< O(nlogn) < O(n²) < O()
我们前面已经谈到了 O(1)常数阶、O(logn)对数阶、O(n)线性阶、O()平方阶等。至于 0(nlogn)我们将会在排序中介绍,而像O(),过大的n都会使得结果变得不现实。
算法的最坏情况和平均情况
我们在分析问题的时候,一定要考虑最坏的情况,以便可以提前准备方案来预防!
算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为 O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是 O(n),这是最坏的一种情况了。
最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间。
而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为 n/2 次后发现这个目标元素。
平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。
对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度。
算法的空间复杂度
我们在写代码时,完全可以用空间来换取时间,比如说,要判断某某年是不是闰年,你可能会花一点心思写了一个算法,而且由于是一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另一个办法就是,事先建立一个有2050个元素的数组(年数略比现实多一点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是值为0。这样,所谓的判断某一年是否是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这2050个0和1。这是通过一笔空间上的开销来换取计算时间的小技巧。到底哪一个好,其实要看你用在什么地方。通常来说,如果你是参加竞赛,那么可以采取空间换时间的做法,如果你是在写项目,那么能节省空间就一定要节省空间。
算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为 O(1)。 简单来说,看你的程序额外开辟的空间,是常数,还是相对于输入量决定。
通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。显然我们这本书重点要讲的还是算法的时间复杂度的问题。
结语
很多人(学习计算机专业的人)对于时间复杂度、空间复杂度没有概念,觉得这个概念无所谓,但是事实一定是如此的吗?还是让我们用数据来说话吧。
假设 CPU 在短短几年间,速度提高了100倍,这其实已经很夸张了。而我们的某个算法本可以写出时间复杂度是O(n)的程序,却写出了O()的程序,仅仅因为容易想到,也容易写。即在O(n)的时间复杂度算法程序下,速度其实只提高了10倍(√100=10),而对于0(n)时间复杂度的算法来说,那才是真的100倍。也就是说,一台老式CPU的计算机运行O(n)的程序和一台速度提高100倍新式CPU 运行O()的程序。最终效率高的胜利方却是老式CPU的计算机,原因就在于算法的优劣直接决定了程序运行的效率。所以,在编写程序的时候,一定要多考虑算法的空间、时间复杂度。