数据结构从入门到实战——算法的时间复杂度
前言
时间复杂度是用来衡量一个算法运行时间随输入数据规模增长而变化的趋势。它不是指算法实际运行了多少秒,而是描述当问题规模变大时,算法执行时间“增长得多快”。我们通常用大写字母 O 来表示。
时间复杂度的作用:
- 比较算法效率:帮助我们判断哪个算法在处理大规模数据时更快。比如 O(n log n) 的算法通常比 O(n²) 更高效。
- 预测性能变化:知道算法在数据量从 1000 增加到 100 万时,运行时间大概会怎么变化。
- 指导算法设计与选择:在写程序或解决问题时,优先选择时间复杂度更低的算法,提升程序性能。
正文开始
一、时间复杂度
1、时间复杂度的概念
时间复杂度的定义:在计算机科学中,算法的时间复杂度是一个函数,它定量描述了该算法的运行时间。一个算法执行所耗费的时间,从理论上说,是不能算出来的,只有你把你的程序放在机器上跑起来,才能知道。但是我们需要每个算法都上机测试吗?是可以都上机测试,但是这很麻烦,所以才有了时间复杂度这个分析方式。一个算法所花费的时间与其中语句的执行次数成正比例,算法中的基本操作的执行次数,为算法的时间复杂度。
实际中我们计算时间复杂度时,我们其实并不一定要计算精确的执行次数,而只需要大概执行次数,那么这里我们使用大O的渐进表示法。
二、大O的渐进表示法
大O符号(Big O notation):是用于描述函数渐进行为的数学符号。
推导大O阶方法:
- 用常数1取代运行时间中的所有加法常数。
- 在修改后的运行次数函数中,只保留最高阶项。
- 如果最高阶项存在且不是1,则去除与这个项目相乘的常数。得到的结果就是大O阶。
在实际中一般情况关注的是算法的最坏运行情况,所以数组中搜索数据时间复杂度为O(N)