前言

算法的效率

虽然计算机能快速的完成运算处理,但实际上,它也需要根据输入数据的大小和算法效率来消耗一定的处理器资源。要想编写出能高效运行的程序,我们就需要考虑到算法的效率。
算法的效率主要由以下两个复杂度来评估:
时间复杂度:评估执行程序所需的时间。可以估算出程序对处理器的使用程度。
空间复杂度:评估执行程序所需的存储空间。可以估算出程序对计算机内存的使用程度。

设计算法时,一般是要先考虑系统环境,然后权衡时间复杂度和空间复杂度,选取一个平衡点。不过,时间复杂度要比空间复杂度更容易产生问题,因此算法研究的主要也是时间复杂度,不特别说明的情况下,复杂度就是指时间复杂度。

本文只分析时间复杂度

什么是时间复杂度

了解时间复杂度之前,先了解时间频度

时间频度

一个算法执行所耗费的时间,从理论上是不能算出来的,必须上机运行测试才能知道。但我们不可能也没有必要对每个算法都上机测试,只需知道哪个算法花费的时间多,哪个算法花费的时间少就可以了。并且一个算法花费的时间与算法中语句的执行次数成正比例,哪个算法中语句执行次数多,它花费时间就多。一个算法中的语句执行次数称为语句频度或时间频度。记为T(n)。

在时间频度不相同时,时间复杂度有可能相同,如T(n)=n2+3n+4与T(n)=4n2+2n+1它们的频度不同,但时间复杂度相同,都为O(n2)。

一句话:T(n)就是时间频度,表示算法执行的次数

问题:T(n)随着n的改变而改变

时间复杂度

时间复杂度 在刚才提到的时间频度中,n称为问题的规模,当n不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律。为此,我们引入时间复杂度概念。 一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数。记作T(n)=O(f(n)),称O(f(n)) 为算法的渐进时间复杂度,简称时间复杂度。

时间复杂度怎么算

  基本操作即算法中的每条语句(以;号作为分割),语句的执行次数也叫做语句的频度。在做算法分析时,一般默认为考虑最坏的情况。

1、计算出每条语句执行次数T(n)

求出代码中每条语句执行的次数

在做算法分析时,一般默认为考虑最坏的情况。

2、计算出T(n)的数量级

求T(n)的数量级,只要将T(n)进行如下一些操作:

忽略常量

低次幂和最高次幂的系数

令f(n)=T(n)的数量级。

3、用大O来表示时间复杂度

  当n趋近于无穷大时,如果lim(T(n)/f(n))的值为不等于0的常数,则称f(n)是T(n)的同数量级函数。记作T(n)=O(f(n))。

只保留最高阶项,最高阶项存在且不是1,则去除与这个项相乘的常数。

前面提到的时间频度T(n)中,n称为问题的规模,当n不断变化时,时间频度T(n)也会不断变化。但有时我们想知道它变化时呈现什么规律,为此我们引入时间复杂度的概念。一般情况下,算法中基本操作重复执行的次数是问题规模n的某个函数,用T(n)表示,若有某个辅助函数f(n),使得当n趋近于无穷大时,T(n)/f(n)的极限值为不等于零的常数,则称f(n)是T(n)的同数量级函数,记作T(n)=O(f(n)),它称为算法的渐进时间复杂度,简称时间复杂度

T(n)/f(n)的极限值为不等于零的常数什么意思?

首先你要知道T(n)是f(n)忽略常量、低次幂和最高次幂的系数。只保留能代表数量级的项。

所以T(n)肯定是小于等于f(n)的

那么,如果T(n)/f(n)的极限值等于0,那么就是说f(n)的增长趋势比T(n)大太多,那么就说明他们俩不是一个数量级的。

不是一个数量级什么意思呢?

就好比你玩LOL,你是黄铜1,他是黄铜3,虽然你比他高一点,但你们俩还是黄铜,是一个数量级的。。。大多数时候,通过段位就能判断你的水平,不会在意是你在你段位是1还是5。这里算法的时间复杂度也是一样,只保留核心项,其他的都去掉。

什么时候不是一个数量级呢?等你上白银或者黄金的时候,那就不是一个数量级的。。。

一个算法的执行时间与哪些因素有关

衡量一个算法的好坏不能简单的从这个算法所花费的时间来衡量。因为这个时间受多种因素影响。一般来说一个算法花费的时间有以下4点

  • 计算机执行的速度->硬件层面
  • 编译产生的代码质量->软件层面
  • 算法的好坏(算法使用的策略)
  • 问题规模

在给定软硬件环境下,其实就是你在自己电脑上写算法的时候,算法执行时间只受算法本身的好坏和要处理的问题的规模影响。这样就将4个影响因素减少为2个,简化了问题

我们继续分析,

给定问题规模n之后,优秀的算法可能执行几次就搞定了,一般的算法可能执行很多很多次才搞定;

当给定算法时,问题规模n很小时,可能执行几次就搞定,而n很大时,就得执行很多次了。

所以算法优劣和问题规模n改变时,执行次数(基本操作数)将改变,所以执行次数就是算法优劣和问题规模n的函数。

既然执行时间受算法好坏和问题规模n的影响,那么执行时间就是它俩的函数。

要比较两个函数的增长情况,最好的办法是比较函数的一阶导,这样最精确,但是考虑到很多时候只需要大体了解算法的优劣就可以了,所以我们就直接考察对增长速度影响最大的一项,这一项就是函数的最高阶数。为了说明最高阶数对函数增长影响最明显,我们看两幅图。

图中4条曲线分别表示4种不同的执行次数表达式,从图中可以看出,只要最高项的阶数相同,4种表达式值受其他项的影响很小,随着n增大,几乎可以忽略不计,甚至可以忽略与最高项相乘的常数。

既然可以只考虑最高项的阶数,以简化问题,达到估算的目的,为何不这样做呢?

那总得给这种情况一个恰当的表示方式吧?和其他领域一样,还得用符号来表示,这个符号就是大名鼎鼎的O符号

推导大O阶有一下三种规则:

  1. 用常数1取代运行时间中的所有加法常数
  2. 只保留最高阶项
  3. 去除最高阶的常数

一般我们我们评估一个算法都是直接评估它的最坏的复杂度。

时间复杂度是一个量级的概念,而不是具体的值,比如O(5n)的量级是n,因为这个时间复杂度函数内最高量级是变量n的一次方

常见时间复杂度

下图来自维基百科

常数级别O(1)

O(1):算法复杂度和问题规模无关。换句话说,哪怕你拿出几个PB的数据,我也能一步到位找到答案。

理论上哈希表就是O(1)。因为哈希表是通过哈希函数来映射的,所以拿到一个关键字,用哈希函数转换一下,就可以直接从表中取出对应的值。和现存数据有多少毫无关系,故而每次执行该操作只需要恒定的时间(当然,实际操作中存在冲突和冲突解决的机制,不能保证每次取值的时间是完全一样的)。

执行次数

N=10,大约执行1次

N=100,大约执行1次

N=1000,大约执行1次

N=10000,大约执行1次

对数级别O(logN)

Tips:log的底数在大O符号的中是省去的。常见的底数为2

O(logN):算法复杂度和问题规模是对数关系。换句话说,数据量大幅增加时,消耗时间/空间只有少量增加(比如,当数据量从2增加到2^64时,消耗时间/空间只增加64倍)

执行次数

底数为2的情况

N=10,大约执行3次

N=100,大约执行7次

N=1000,大约执行10次

N=10000,大约执行13次

代码

int number = 1; // 语句执行一次
while (number < n) { // 语句执行logn次// 这里的2是log的底数// 底数在大O符号中是省去的number *= 2; // 语句执行logn次
}

线性级别O(N)

O(n):算法复杂度和问题规模是线性关系。换句话说,随着样本数量的增加,复杂度也随之线性增加

执行次数

N=10,大约执行10次

N=100,大约执行100次

N=1000,大约执行1000次

N=10000,大约执行10000次

代码

int i =0; // 语句执行一次
while (i < n) { // 语句执行n次print(i); //语句执行n次i++; // 语句执行n次
}

这个算法中代码总共执行了 3n + 1次,根据规则 2->3,因此该算法的时间复杂度是O(n)。

线性对数级别O(NlogN)

O(logn)的算法复杂度,典型的比如二分查找。设想一堆试卷,已经从高到底按照分数排列了,我们现在想找到有没有59分的试卷。怎么办呢?先翻到中间,把试卷堆由中间分成上下两堆,看中间这份是大于还是小于59,如果大于,就留下上面那堆,别的丢掉,如果小于,就留下下面那堆,丢掉上面。然后按照同样的方法,每次丢一半的试卷,直到丢无可丢为止。

假如有32份试卷,你丢一次,还剩16份 ,丢两次,还剩下8 份,丢三次,就只剩下4份了,可以这么一直丢下去,丢到第五次,就只剩下一份了。而  。也就是我们一次丢一半,总要丢到只有一份的时候才能出结果,如果有n份,那么显然我们就有:

也就是大约需要  次,才能得出“找到”或者“没找到”的结果。当然你说你三分查找,每次丢三分之二可不可以?当然也可以,但是算法复杂度在这里是忽略常数的,所以不管以2为底,还是以什么数为底,都统一的写成 log(n)的形式。

理解了这一点,就可以理解快速排序为什么是 O(nlogn)了。比如对一堆带有序号的书进行排序,怎么快呢?就是随便先选一本,然后把号码大于这本书的扔右边,小于这本书的扔左边。因为每本书都要比较一次,所以这么搞一次的复杂度是 O(n),那么快排需要我们搞多少次呢?这个又回到了二分查找的逻辑了,每次都把书堆一分为二,请问分多少次手里才能只剩下一本书呢?答案还是 logn。而从代码的角度来说,在到达大小为一的数列之前,我们也是需要作 logn次嵌套的调用。

执行次数

底数为2的情况

N=10,大约执行33次

N=100,大约执行664次

N=1000,大约执行9966次

N=10000,大约执行132877次

平方级别O(N^2)

O(n^2)计算的复杂度随着样本个数的平方数增长。这个例子在算法里面,就是那一群比较挫的排序,比如冒泡等等。

执行次数

N=10,大约执行100次

N=100,大约执行10000次

N=1000,大约执行1000000次

N=10000,大约执行100000000次

代码

for (int i = 0; i < n; i++) { // 语句执行n次for (int j = 0; j < n; j++) { // 语句执行n^2次print('I am here!'); // 语句执行n^2}
}

上面的嵌套循环中,代码共执行 2*n^2 + n,则f(n) = n^2。所以该算法的时间复杂度为O(n^2 )

指数级别O(2^N)

如果一个算法的运行时间是指数级的(exponential),一般它很难在实践中使用

执行次数

N=10,大约执行1024次

N=100,大约执行2^100次

N=1000,大约执行2^1000次

N=10000,大约执行2^10000次

排序算法计算

这里并不是详细讲排序算法,只讲他们的复杂度是什么算出来的。

来自:https://www.zhihu.com/question/21387264/answer/422740592

冒泡排序

对于数组中的每一个数,我们比较它和右边的邻居的大小关系,邻居小则交换。从数组的最右端开始,最后一个数(array[n - 1])没有右邻居,所以我们从倒数第二右(array[n - 2])开始,它最多跟最后一个数比较并交换 1 次;接下来是 array[n - 3],它右边有 2 个邻居,所以它最多比较并交换 2 次……以此类推,直到最左边的数 array[0],它右边有 n - 1 个邻居,所以它最多比较并交换 n - 1 次。综上所述,算法的总比较次数就是  。忽略系数,所以它具有  的时间复杂度。

选择排序。我们每次从数组中选出一个最小值并放在最左边。第一轮从 n 个数里选出一个最小值,所以我们需要挨个比较 n 个数;第二轮从 n - 1 个数里选出一个最小值,我们需要挨个比较 n - 1 个数……以此类推,算法的总比较次数就是  。忽略系数和低阶项,我们说它的时间复杂度是 

归并排序

这是一个分治的过程,并且我们通常使用递归来实现。为了分析递归,我们应该画出递归树,举例如下:

Split 0         8 7 6 5 4 3 2 1
Split 1        8 7 6 5 | 4 3 2 1
Split 2      8 7 | 6 5 | 4 3 | 2 1
Split 3  8 | 7 | 6 | 5 | 4 | 3 | 2 | 1
------------------------------------------
Merge 0  8 | 7 | 6 | 5 | 4 | 3 | 2 | 1
Merge 1      7 8 | 5 6 | 3 4 | 1 2
Merge 2        5 6 7 8 | 1 2 3 4
Merge 3         1 2 3 4 5 6 7 8

将整个归并排序分为分割合并两个过程来看。

分割过程

对于分割过程(分割线以上),每分割一次,我们就会分别对左右两部分执行相同的逻辑,即递归调用这两部分。所以我们来看分割部分一共有多少次函数调用:split 0 层有 1 次函数调用;split 1 层是第 1 次分割,对左右两半分别调用 1 次函数,因此该层一共有 2 次函数调用;以此类推,split 2 层有 4 次调用、split 3 层有 8 次调用……所以整个分割过程一共调用了  次函数(首项为 1、公比为 2、末项为 n 的等比数列求和)。忽略系数和常数项,分割过程具有  的时间复杂度。

合并过程

再来看合并过程(分割线以下)。对于两个排好序的子部分,将其合并需要对两个子部分中的每一个数逐一比较。因此,merge 0 层我们需要合并 8 组,每组只有一个数,不妨算作“逐一比较”1 次,所以该层的总比较次数为 8 次;类似地,merge 1 层有 4 组,组与组之间两两比较,该层的总比较次数为 4 x 2 = 8 次……以此类推,合并过程中每层都需要比较 n 次,总层数为  ,所以总比较次数就是  。忽略底数和低阶项,我们就得到了合并过程的时间复杂度  。

所以对于整个归并排序,总时间复杂度为分割+合并,即 ,忽略低阶项,就是  。

快速排序

也是一个分治的过程。这里重点强调最坏复杂度  和平均复杂度 是怎么算出来的。快排的过程可以概括为,先从数组里随机选出一颗“钉子”(pivot),遍历整个数组,将这颗钉子放到自己应有的位置上,而且此时此刻,钉子左边那一半虽然还没排好序,但它们全部都比钉子小,同理钉子右边那一半全部都比钉子大但也还没排好序。接下来,我们分别对钉子的左右两部分执行刚才的逻辑,即递归调用快排过程,直到不能再分割为止。所以我们不难发现,随机选择的钉子就是整个快排最大的变数。

最差情况

Quick sort: worst case scenarioLayer 0  [8 7 6 5 4 3 2 1]p
Layer 1  1 [8 7 6 5 4 3 2]p
Layer 2  1 2 [8 7 6 5 4 3]p
......
*p: the pivot

快排的最坏情况就是,假设我们每一次挑出来的钉子都非常不走运,该轮遍历完后这颗钉子恰好位于数组的一端,此时分别递归钉子的左右两边就会变成只能递归一边,因为另一边是空的。换言之,在这种次次不走运的极端情况下,每轮挪钉子的过程就退化成了一个选择排序。前面我们已经分析过选择排序的时间复杂度是 ,因此快排的最坏时间复杂度是  。

平均情况

Quick sort: average scenarioLayer 0  [11 10 9 8 7 6 5 4 3 2 1]p
Layer 1  [5 4 3 2 1] 6 [11 10 9 8 7]p               p
Layer 2  [2 1] 3 [5 4] 6 [8 7] 9 [11 10]p       p       p       p
......
*p: the pivot

快排的平均情况就是,假设我们每一次挑出来的钉子不偏不倚,遍历完后正好位于数组的正中央,显然这一轮遍历了 n 个元素。接下来,分别递归钉子的左右两边,即分别遍历两组 n/2 个元素,该轮总计遍历了 2 x n/2 = n 个元素……以此类推,每次递归钉子都在正中间,每层我们都要遍历 n 个元素,每次递归都是均匀二分,那么就像上面的归并排序一样,一共会有  层,所以在这种情况下整个算法一共遍历  次,也就是  的时间复杂度。

堆排序

虽然总体复杂度也是  ,但它的建堆过程是  ,很多人在这里犯错。接下来我们用高一数学推导建堆过程的时间复杂度。

首先将原数组用堆结构表示出来,例如下图的二叉堆:

Layer 0         15
Layer 1       14  13
Layer 2    12 11  10 9
Layer 3  8 7 6 5 4 3 2 1

建堆(heapification)过程概括来讲,就是从当前堆的最后一个父节点开始,检查该父节点是否与其左右子节点满足堆序性(heap property),不满足则一路向下交换,并挨个对每一个父节点重复这个过程。从图中我们很容易看出 n 个元素组成的堆一共有  层。仔细观察不难发现,排位靠下的父节点,只需要较少的次数就能换到最下面;而靠上的父节点,则要交换更多次才能换到最下面。在最坏情况下,假设所有父节点都需要换到最下面,为方便起见我们令堆的总层数  ,可得

Layer 0 有  个父节点,换到最底(最坏情况)需要交换  次;

Layer 1 有  个父节点,换到最底需要交换  次;

……

倒数第二层有  个父节点,换到最底需要交换 1 次;

最后一层全是叶子节点,不交换。

综上可得建堆过程的总交换次数

不难看出,这是一个我们在高中已经玩烂了的差比数列(等比x等差的数列),错位相减即可求得该数列的和:

以上两式相减得

代入 可得建堆过程的总交换次数

忽略低阶项和常数项,建堆的时间复杂度为 

nlogn,难道这是排序算法的极限了吗?

很遗憾,nlogn已经是比较排序算法的极限了。

具体可以看知乎的讨论https://www.zhihu.com/question/24516934

参考

https://blog.csdn.net/u010402786/article/details/51435735

https://juejin.im/post/58d15f1044d90400691834d4

https://www.zhihu.com/question/21387264

https://www.zhihu.com/question/20196775

https://blog.csdn.net/zolalad/article/details/11848739

https://www.cnblogs.com/gaochundong/p/complexity_of_algorithms.html

https://blog.csdn.net/u010402786/article/details/51435735

时间复杂度+常见复杂度解释相关推荐

  1. 【无人机航测实习简明教程】1 无人机航测常见名词术语解释

    1 无人机航测常见名词术语解释 1 数据获取部分 航片: 地面分辨率: 航向重叠率: 旁向重叠率: 五向飞行: 井字形飞行: 变高飞行: 正射: 像片的方位元素: 像片的内方位元素: 像片的外方位元素 ...

  2. SQL的连接(join)有哪些常见形式?解释一下?解释 SQL 的 left join 和 right join?

    SQL的连接(join)有哪些常见形式?解释一下?解释 SQL 的 left join 和 right join? SQL的连接(join)有哪些常见形式? sql连接查询:把多张表的列组合在一起,产 ...

  3. Java常见异常及解释

    常见 Java 异常解释:(译者注:非技术角度分析.阅读有风险,理解需谨慎:)) java.lang ArithmeticException 你正在试图使用电脑解决一个自己解决不了的数学问题,请重新阅 ...

  4. 常见 Java 异常解释(恶搞版)

    常见 Java 异常解释(恶搞版) 参考文章: (1)常见 Java 异常解释(恶搞版) (2)https://www.cnblogs.com/ECJTUACM-873284962/p/7491789 ...

  5. 微型计算机的英文术语,计算机常见英语词汇解释

    电脑,又称计算机,是机械的一种,现在使用的越来越多.接下来小编为大家整理了计算机常见英语词汇解释,希望对你有帮助哦! 计算机常见英语词汇解释一: access arm 磁头臂,存取臂 access t ...

  6. P2P常见名词的解释

    最近在整理一些业务上的指标与流程,先按照业务流程总结了一份P2P常见名词的解释.欢迎小伙伴们补充与纠错 一.常见名词 网贷:P2P网络借款,个体与个体之间通过中间网站实现借贷,中间网站称为网贷平台,简 ...

  7. 常见 Java 异常解释

    常见 Java 异常解释:(译者注:非技术角度分析.阅读有风险,理解需谨慎:)) **java.lang ArithmeticException 你正在试图使用电脑解决一个自己解决不了的数学问题,请重 ...

  8. 【译】常见 Java 异常解释(恶搞版)

    常见 Java 异常解释:(译者注:非技术角度分析.阅读有风险,理解需谨慎o(╯□╰)o) java.lang ArithmeticException 你正在试图使用电脑解决一个自己解决不了的数学问题 ...

  9. 产品常见名词概念解释集锦

    5W2H法 (1) WHAT--是什么?目的是什么?做什么工作? (2)WHY--为什么要做?可不可以不做?有没有替代方案? (3)WHO--谁?由谁来做? (4)WHEN--何时?什么时间做?什么时 ...

最新文章

  1. AppSwiper让iphone5快速关闭后台应用
  2. nginxmysql负载均衡,神操作!
  3. 360首席安全官谭晓生宣布离职
  4. DL之SSD:SSD算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
  5. 内表使用Binary Search的限制
  6. mysql使用索引扫描做排序_「Mysql索引原理(八)」使用索引扫描做排序
  7. 盘点优秀程序员的六大特征
  8. php-resque的设计和使用
  9. html5飞机发射教程,Javascript学习笔记(13_5) --js事件(飞机发射子弹)
  10. 都柏林理工学院计算机,入爱尔兰都柏林理工大学,硕博连读全免费
  11. svn服务器端 忽略文件夹,SVN忽略不需要版本控制的文件或者文件夹
  12. 金蝶K3案例教程简介
  13. python骰子游戏分析_python知识分解析掷骰子游戏
  14. 【笔记】MyBatis 大于等于小于等于常用写法
  15. 听《万古江河》,品中国历史
  16. 微信公众号开发功能大全
  17. 转化为五分制的c语言程序,用C语言把百分制转化为五分制
  18. 使用springboot写一个记事小账本
  19. 开源版“微信”,了解一下~
  20. css3 性能优化之 will-change 属性

热门文章

  1. python在winsorize中遇到缺失值的问题
  2. Google Earth Engine(GEE)扩展——gee-blend(图层影像加载)
  3. vs2015编译运行quake3
  4. ae计算机安装步骤,ae插件怎么安装【设置步骤】
  5. Linux下的tty和pts
  6. UE4学习案例——多人网络中同步信息的方法
  7. canvas框架收集
  8. 交叉熵损失函数python_交叉熵损失函数nn.CrossEntropyLoss()
  9. 程序员财富自由的方法
  10. w3shool中的TCP/IP (I)