当前位置: 首页 > article >正文

【数据结构】—— 时间复杂度、空间复杂度

算法时间复杂度定义

在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间量度,记作:T(n)=O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,称作算法的渐近时间复杂度,简称为时间复杂度。其中f(n)是问题规模n的某个函数。

这样用大写O()来体现算法时间复杂度的记法,我们称之为大O记法。一般情况下,随着n的增大,T(n)增长最慢的算法为最优算法。显然,由此算法时间复杂度的定义可知,我们的三个求和算法的时间复杂度分别为 O(n),O(1),O(n^{2})。我们分别给它们取了非官方的名称,O(1)叫常数阶、O(n)叫线性阶、O(n^{2})叫平方阶,当然,还有其他的一些阶,我们之后会介绍。

推导大O阶方法

那么如何分析一个算法的时间复杂度呢?即如何推导大0阶呢?我们给出了下面的推导方法,基本上,这也就是总结前面我们举的例子。
推导大 O 阶:

  1. 用常数1取代运行时间中的所有加法常数。
  2. 在修改后的运行次数函数中,只保留最高阶项,
  3. 如果最高阶项存在且不是1,则去除与这个项相乘的常数。

经过上述规则得到的结果就是大 O 阶。哈,仿佛是得到了游戏攻略一样,我们好像已经得到了一个推导算法时间复杂度万能公式。可事实上,分析一个算法的时间复杂度,没有这么简单,我们还需要多看几个例子。

常数阶

首先顺序结构的时间复杂度。下面这个代码,为什么时间复杂度不是 O(3),而是 O(1)。

int i = 1, j = 2, sum = 0;/*执行一次 */
sum= i  +j;/*执行一次 */
printf("%d",sum);/* 执行一次 */

这个算法的运行次数函数是f(n)=3。根据我们推导大O阶的方法,第一步就是把常数项3改为1。在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。另外、我们试想一下,如果这个代码中的printf语句执行100次,它的时间复杂度会不会发生改变?实际上无论n为多少,上面的两段代码就是执行3次和102次的差异。这种与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶

【注意】:不管这个常数是多少,我们都将它记作O(1),而不是O(3)、O(102)等任何数字。

对于分支结构(if、switch语句)而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。

线性阶

线性阶的循环结构会复杂很多。要确定某个算法的阶次,我们常常需要确定某个特定语句或某个语句集运行的次数。因此,我们要分析算法的复杂度,关键就是要分析循环结构的运行情况。
下面这段代码,它的循环的时间复杂度为O(n),因为循环体中的代码须要执行n次

for(int i = 0; i < n; ++i)
    sum += i;

对数阶

下面这段代码,时间复杂度又是多少?

int cnt = 1;
while(cnt < n)
    cnt *= 2;

由于每次cnt乘2之后,就距离n接近一半。也就是说,有多少个2相乘之后大于n。由于2^{n} = n两边取对数得到,x = log2^{n}。在时间复杂度上我们常用O(logn)代表对数阶。

同样,下面代码的时间复杂度为多少?

while(left < right)
{
    int mid = left + right >> 1;
    if(target < num[mid])
        right = mid -  1;
    else if(target > num[mid])
        left = mid;
    else 
        break;
}

这是一个二分查找的伪代码。现在left位于num的首位,right位于num的最后一个元素。mid是left 和 right它们的中点,通过if语句来使查找的范围缩小一半。同上一个例子一样时间复杂度为O(logn)

平方阶

下面例子是循环嵌套。它的内循环刚才已经分析过了。时间复杂度为O(n)。

for(int i = 0; i  <n; ++i)
    for(int j = 0; j < n; ++j)
        sum += j;

由于外循环,不过是内循环这个时间复杂度O(n)的语句,在循环n次。所以这段代码的时间复杂度为O(n^{2})。那如果外循环改成m的话,时间复杂度为O(m x n)。

for(int i = 0; i < m; ++i)
    for(int j = 0; j < n; ++j)
        sum += j;

所以我们可以得出,循环的时间复杂度等于循环体复杂度乘以该循环运行的次数。

那么,下面这个循环嵌套,它的时间复杂度为多少?

for(int i = 0; i  <n; ++i)
    for(int j = i; j < n; ++j) //注意j = i
        sum += j;

由于当i=0时,内循环执行了n次,当i=1时,执行了n-1次,…当i-n-1时,执行了1次。所以总的执行次数为n+(n-1)+(n-2)+…+1 = n * (n + 1) / 2(等差数列的求和公式)。用我们推导大 O阶的方法,第一条,没有加法常数不予考虑;第二条,只保留最高阶项,因此保留 n^{2}/2;第三条,去除这个项相乘的常数,也就是去除1/2,最终这段代码的时间复杂度为 0(n^{2})。

从这个例子,我们也可以得到一个经验,其实理解大O推导不算难,难的是对数列的一些相关运算,这更多的是考察你的数学知识和能力,所以想考研的朋友,要想在求算法时间复杂度这里不失分,可能需要强化你的数学,特别是数列方面的知识和解题能力。

常见的时间复杂度

常见的时间复杂度如下表所示。

 常用的时间复杂度所耗费的时间从小到大依次是:

O(1) <O(logn )< О(n)< O(nlogn) < O(n²) < O(n^{3}

我们前面已经谈到了 O(1)常数阶、O(logn)对数阶、O(n)线性阶、O(n^{2})平方阶等。至于 0(nlogn)我们将会在排序中介绍,而像O(n^{3}),过大的n都会使得结果变得不现实。

算法的最坏情况和平均情况

我们在分析问题的时候,一定要考虑最坏的情况,以便可以提前准备方案来预防!

算法的分析也是类似,我们查找一个有n个随机数字数组中的某个数字,最好的情况是第一个数字就是,那么算法的时间复杂度为 O(1),但也有可能这个数字就在最后一个位置上待着,那么算法的时间复杂度就是 O(n),这是最坏的一种情况了。

最坏情况运行时间是一种保证,那就是运行时间将不会再坏了。在应用中,这是一种最重要的需求,通常,除非特别指定,我们提到的运行时间都是最坏情况的运行时间
而平均运行时间也就是从概率的角度看,这个数字在每一个位置的可能性是相同的,所以平均的查找时间为 n/2 次后发现这个目标元素。

平均运行时间是所有情况中最有意义的,因为它是期望的运行时间。也就是说我们运行一段程序代码时,是希望看到平均运行时间的。可现实中,平均运行时间很难通过分析得到,一般都是通过运行一定数量的实验数据后估算出来的。

对算法的分析,一种方法是计算所有情况的平均值,这种时间复杂度的计算方法称为平均时间复杂度。另一种方法是计算最坏情况下的时间复杂度,这种方法称为最坏时间复杂度。一般在没有特殊说明的情况下,都是指最坏时间复杂度

算法的空间复杂度

我们在写代码时,完全可以用空间来换取时间,比如说,要判断某某年是不是闰年,你可能会花一点心思写了一个算法,而且由于是一个算法,也就意味着,每次给一个年份,都是要通过计算得到是否是闰年的结果。还有另一个办法就是,事先建立一个有2050个元素的数组(年数略比现实多一点),然后把所有的年份按下标的数字对应,如果是闰年,此数组项的值就是1,如果不是值为0。这样,所谓的判断某一年是否是闰年,就变成了查找这个数组的某一项的值是多少的问题。此时,我们的运算是最小化了,但是硬盘上或者内存中需要存储这2050个0和1。这是通过一笔空间上的开销来换取计算时间的小技巧。到底哪一个好,其实要看你用在什么地方。通常来说,如果你是参加竞赛,那么可以采取空间换时间的做法,如果你是在写项目,那么能节省空间就一定要节省空间。

算法的空间复杂度通过计算算法所需的存储空间实现,算法空间复杂度的计算公式记作S(n)=O(f(n)),其中,n为问题的规模,f(n)为语句关于n所占存储空间的函数。一般情况下,一个程序在机器上执行时,除了需要存储程序本身的指令、常数、变量和输入数据外,还需要存储对数据操作的存储单元。若输入数据所占空间只取决于问题本身,和算法无关,这样只需要分析该算法在实现时所需的辅助单元即可。若算法执行时所需的辅助空间相对于输入数据量而言是个常数,则称此算法为原地工作,空间复杂度为 O(1)。 简单来说,看你的程序额外开辟的空间,是常数,还是相对于输入量决定。

通常,我们都使用“时间复杂度”来指运行时间的需求,使用“空间复杂度”指空间需求。当不用限定词地使用“复杂度”时,通常都是指时间复杂度。显然我们这本书重点要讲的还是算法的时间复杂度的问题。

结语

        很多人(学习计算机专业的人)对于时间复杂度、空间复杂度没有概念,觉得这个概念无所谓,但是事实一定是如此的吗?还是让我们用数据来说话吧。

        假设 CPU 在短短几年间,速度提高了100倍,这其实已经很夸张了。而我们的某个算法本可以写出时间复杂度是O(n)的程序,却写出了O(n^{2})的程序,仅仅因为容易想到,也容易写。即在O(n)的时间复杂度算法程序下,速度其实只提高了10倍(√100=10),而对于0(n)时间复杂度的算法来说,那才是真的100倍。也就是说,一台老式CPU的计算机运行O(n)的程序和一台速度提高100倍新式CPU 运行O(n^{2})的程序。最终效率高的胜利方却是老式CPU的计算机,原因就在于算法的优劣直接决定了程序运行的效率。所以,在编写程序的时候,一定要多考虑算法的空间、时间复杂度。


http://www.kler.cn/a/403216.html

相关文章:

  • el-table最大高度无法滚动
  • 使用最小花费爬楼梯(DP)
  • 46并发编程(线程、进程)
  • Ubuntu安装Electron环境
  • NLP论文速读(多伦多大学)|利用人类偏好校准来调整机器翻译的元指标
  • 使用低成本的蓝牙HID硬件模拟鼠标和键盘来实现自动化脚本
  • 依赖管理(go mod)
  • Android开发实战班 - 网络编程 - WebSocket 实时通信
  • 数据结构-堆排序笔记
  • 本草纲目数字化:Spring Boot在中药实验管理中的应用
  • 【Pytorch】torch.utils.data模块
  • .NET 9与C# 13革新:新数据类型与语法糖深度解析
  • 【课堂笔记】隐私计算实训营第四期:匿踪查询PIR
  • 【软件测试】自动化常用函数
  • 拼多多式社交裂变在欧美市场的困境与突破:Web3 增长的新思考
  • Spring Boot核心概念:应用配置
  • 企事业单位的敏感数据怎么保护比较安全?
  • 嵌入式学习-C嘎嘎-Day03
  • 单片机学习笔记 1. 点亮一个LED灯
  • 创建型设计模式(模版方法、观察者模式、策略模式)
  • 网络安全实施方案
  • 关联度分析、灰色预测GM(1,1)、GM(1,1)残差模型——基于Python实现
  • 类和对象——static 成员,匿名对象(C++)
  • OAI-5G开源通信平台实践(三)
  • linux 软连接的使用
  • tensorflow有哪些具体影响,和chatgpt有什么关系