算法的时间复杂度

我的梦境 提交于 2019-11-28 16:06:06

算法的时间复杂度

算法的时间复杂度:在进行算法分析时,语句总的执行次数T(n)是关于问题

n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间度量,记:T(n)=O(f(n))。他表示随问题n的增加,算法执行时间的增长率和f(n)的增长率相同,f(n)是问题规模的某个函数。

一般情况:随着输入规模n的增加,T(n)增加最慢的算法为最优算法。一般表示法:O(1)  O(n) O(n2)等等


那么如何分析一个算法的时间复杂度呢?即如何推导出大O阶呢,整理如下:

--用常数1代替运行时间中的所有加法常数,例如:某个算法运行时间是1+1+1则认为是常数1表示O(1),常数都用1来代替。

--在修改后的运行函数中,只保留最高阶

--如果最高阶存在且不唯1,则去除与这个项相乘的常数

--得到的结果就是大O阶

线性阶

一般含有非嵌套循环涉及线性阶,线性阶就是随着问题规模n的扩大,对应计算次数呈直线增长。

平方阶

一般含有嵌套循环涉及平方阶,也就是说有两个for循环。

易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!