递归算法时间复杂度

时间:2024-07-26 08:39:14编辑:分享君

请问算法的时间复杂度是怎么计算出来的?

首先假设任意一个简单运算的时间都是1,例如a=1;a++;a=a*b;这些运算的时间都是1.

那么例如
for(int i=0;i<n;++i)
{
for(int j=0;j<m;++j)
a++; //注意,这里计算一次的时间是1.
}
那么上面的这个例子的时间复杂度就是 m*n

再例如冒泡排序的时间复杂度是N*N;快排的时间复杂度是log(n)。

详细的情况,建议你看《算法导论》,里面有一章节,具体讲这个的。


递归函数的时间复杂度应该怎么算

求解算法的时间复杂度的具体步骤是:
  ⑴ 找出算法中的基本语句;
  算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。
  ⑵ 计算基本语句的执行次数的数量级;
  只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。
  ⑶ 用大Ο记号表示算法的时间性能。
  将基本语句执行次数的数量级放入大Ο记号中。
  如果算法中包含嵌套的循环,则基本语句通常是最内层的循环体,如果算法中包含并列的循环,则将并列循环的时间复杂度相加。例如:
  for (i=1; i<=n; i++)
  x++;
  for (i=1; i<=n; i++)
  for (j=1; j<=n; j++)
  x++;
  第一个for循环的时间复杂度为Ο(n),第二个for循环的时间复杂度为Ο(n2),则整个算法的时间复杂度为Ο(n+n2)=Ο(n2)。
  常见的算法时间复杂度由小到大依次为:
  Ο(1)<Ο(log2n)<Ο(n)<Ο(nlog2n)<Ο(n2)<Ο(n3)<…<Ο(2n)<Ο(n!)
Ο(1)表示基本语句的执行次数是一个常数,一般来说,只要算法中不存在循环语句,其时间复杂度就是Ο(1)。Ο(log2n)、Ο(n)、Ο(nlog2n)、Ο(n2)和Ο(n3)称为多项式时间,而Ο(2n)和Ο(n!)称为指数时间。计算机科学家普遍认为前者是有效算法,把这类问题称为P类问题,而把后者称为NP问题。
这只能基本的计算时间复杂度,具体的运行还会与硬件有关。
参考博客地址:


请问递归算法的时间复杂度如何计算呢?

递归算法的时间复杂度在算法中,当一个算法中包含递归调用时,其时间复杂度的分析会转化为一个递归方程求解,常用以下四种方法: 1.代入法(Substitution Method) 代入法的基本步骤是先推测递归方程的显式解,然后用数学归纳法来验证该解是否合理。 2.迭代法(Iteration Method) 迭代法的基本步骤是迭代地展开递归方程的右端,使之成为一个非递归的和式,然后通过对和式的估计来达到对方程左端即方程的解的估计。 3.套用公式法(Master Method) 这个方法针对形如“T(n) = aT(n/b) + f(n)”的递归方程。这种递归方程是分治法的时间复杂性所满足的递归关系。即一个规模为n的问题被分成规模均为n/b的a个子问题,递归地求解这a个子问题,然后通过对这a个子间题的解的综合,得到原问题的解。 4.差分方程法(Difference Formula Method) 可以将某些递归方程看成差分方程,通过解差分方程的方法来解递归方程,然后对解作出渐近阶估计。 扩展资料:1.递归是指对一个问题的求解,可以通过同一问题的更简单的形式的求解来表示,并通过问题的简单形式的解求出复杂形式的解,是解决一类问题的重要方法。2.递归程序设计是程序设计中常用的一种方法,它可以解决所有有递归属性的问题,并且是行之有效的.3.但对于递归程序运行的效率比较低,无论是时间还是空间都比非递归程序更费,若在程序中消除递归调用,则其运行时间可大为节省.

数据结构和算法,递归运算时所用的递归栈是否算空间复杂度?

不算,算法不考虑具体实现技术所耗用的额外的运行时间和空间。最典型的一个算法是:计算斐波那契数列f(n)=f(n-1)+f(n-2),在递归的情况下空间复杂度是常数。但是在c/c++下其实背后耗掉的内存空间是大于O(n)的,但是在其他编译器下可能就真的是常数,而算法是很纯粹的,他只考虑自己算法执行时候用来存储他需要或者他产生的数据所耗掉的空间。


所有的递归算法空间复杂度都是O(n)吗

递归计算一个数组的和也有可能是O(1)复杂度:int Sum(int[] numbers, int start, int sum){ if(start>=numbers.Length) return sum; if (start < 2) return Sum(numbers, start+1, sum+numbers[start]); for(int i=start;i<numbers.Length;i++) { sum+=numbers[i]; } return Sum(numbers, numbers.Length, sum);}


算法的时间复杂度如何计算?

求解算法的时间复杂度的具体步骤是:
  ⑴ 找出算法中的基本语句;
  算法中执行次数最多的那条语句就是基本语句,通常是最内层循环的循环体。
  ⑵ 计算基本语句的执行次数的数量级;
  只需计算基本语句执行次数的数量级,这就意味着只要保证基本语句执行次数的函数中的最高次幂正确即可,可以忽略所有低次幂和最高次幂的系数。这样能够简化算法分析,并且使注意力集中在最重要的一点上:增长率。
  ⑶ 用大Ο记号表示算法的时间性能。
  将基本语句执行次数的数量级放入大Ο记号中。
  如果算法中包含嵌套的循环,则基本语句通常是最内层的循环体,如果算法中包含并列的循环,则将并列循环的时间复杂度相加。例如:
  for (i=1; i<=n; i++)
  x++;
  for (i=1; i<=n; i++)
  for (j=1; j<=n; j++)
  x++;
  第一个for循环的时间复杂度为Ο(n),第二个for循环的时间复杂度为Ο(n2),则整个算法的时间复杂度为Ο(n+n2)=Ο(n2)。
  常见的算法时间复杂度由小到大依次为:
  Ο(1)<Ο(log2n)<Ο(n)<Ο(nlog2n)<Ο(n2)<Ο(n3)<…<Ο(2n)<Ο(n!)
Ο(1)表示基本语句的执行次数是一个常数,一般来说,只要算法中不存在循环语句,其时间复杂度就是Ο(1)。Ο(log2n)、Ο(n)、Ο(nlog2n)、Ο(n2)和Ο(n3)称为多项式时间,而Ο(2n)和Ο(n!)称为指数时间。计算机科学家普遍认为前者是有效算法,把这类问题称为P类问题,而把后者称为NP问题。
这只能基本的计算时间复杂度,具体的运行还会与硬件有关。
参考博客地址:http://blog.csdn.net/xingqisan/article/details/3206303


如何计算时间复杂度

如何计算时间复杂度 定义:如果一个问题的规模是n,解这一问题的某一算法所需要的时间为T(n),它是n的某一函数 T(n)称为这一算法的“时间复杂性”。当输入量n逐渐加大时,时间复杂性的极限情形称为算法的“渐近时间复杂性”。我们常用大O表示法表示时间复杂性,注意它是某一个算法的时间复杂性。大O表示只是说有上界,由定义如果f(n)=O(n),那显然成立f(n)=O(n^2),它给你一个上界,但并不是上确界,但人们在表示的时候一般都习惯表示前者。此外,一个问题本身也有它的复杂性,如果某个算法的复杂性到达了这个问题复杂性的下界,那就称这样的算法是最佳算法。“大 O记法”:在这种描述中使用的基本参数是 n,即问题实例的规模,把复杂性或运行时间表达为n的函数。这里的“O”表示量级 (order),比如说“二分检索是 O(logn)的”,也就是说它需要“通过logn量级的步骤去检索一个规模为n的数组”记法 O ( f(n) )表示当 n增大时,运行时间至多将以正比于 f(n)的速度增长。这种渐进估计对算法的理论分析和大致比较是非常有价值的,但在实践中细节也可能造成差异。例如,一个低附加代价的O(n2)算法在n较小的情况下可能比一个高附加代价的 O(nlogn)算法运行得更快。当然,随着n足够大以后,具有较慢上升函数的算法必然工作得更快。O(1)Temp=i;i=j;j=temp; 以 上三条单个语句的频度均为1,该程序段的执行时间是一个与问题规模n无关的常数。算法的时间复杂度为常数阶,记作T(n)=O(1)。如果算法的执行时 间不随着问题规模n的增加而增长,即使算法中有上千条语句,其执行时间也不过是一个较大的常数。此类算法的时间复杂度是O(1)。O(n^2)2.1. 交换i和j的内容 sum=0; (一次) for(i=1;i<=n;i++) (n次 ) for(j=1;j<=n;j++) (n^2次 ) sum++; (n^2次 )解:T(n)=2n^2+n+1 =O(n^2)2.2. for (i=1;i<n;i++) { y=y+1; ① for (j=0;j<=(2*n);j++) x++; ② } 解: 语句1的频度是n-1 语句2的频度是(n-1)*(2n+1)=2n^2-n-1 f(n)=2n^2-n-1+(n-1)=2n^2-2 该程序的时间复杂度T(n)=O(n^2). O(n) 2.3. a=0; b=1; ① for (i=1;i<=n;i++) ② { s=a+b;    ③ b=a;     ④ a=s;     ⑤ }解: 语句1的频度:2, 语句2的频度: n, 语句3的频度: n-1, 语句4的频度:n-1, 语句5的频度:n-1, T(n)=2+n+3(n-1)=4n-1=O(n). O(log2n )2.4. i=1; ① while (i<=n) i=i*2; ②解: 语句1的频度是1, 设语句2的频度是f(n), 则:2^f(n)<=n;f(n)<=log2n 取最大值f(n)= log2n, T(n)=O(log2n )O(n^3)2.5. for(i=0;i<n;i++) { for(j=0;j<i;j++) { for(k=0;k<j;k++) x=x+2; } }解: 当i=m, j=k的时候,内层循环的次数为k当i=m时, j 可以取 0,1,...,m-1 , 所以这里最内循环共进行了0+1+...+m-1=(m-1)m/2次所以,i从0取到n, 则循环共进行了: 0+(1-1)*1/2+...+(n-1)n/2=n(n+1)(n-1)/6所以时间复杂度为O(n^3). 我 们还应该区分算法的最坏情况的行为和期望行为。如快速排序的最 坏情况运行时间是 O(n^2),但期望时间是 O(nlogn)。通过每次都仔细 地选择基准值,我们有可能把平方情况 (即O(n^2)情况)的概率减小到几乎等于 0。在实际中,精心实现的快速排序一般都能以 (O(nlogn)时间运行。下面是一些常用的记法:访问数组中的元素是常数时间操作,或说O(1)操作。一个算法 如 果能在每个步骤去掉一半数据元素,如二分检索,通常它就取 O(logn)时间。用strcmp比较两个具有n个字符的串需要O(n)时间 。常规的矩阵乘算法是O(n^3),因为算出每个元素都需要将n对 元素相乘并加到一起,所有元素的个数是n^2。指数时间算法通常来源于需要 求出所有可能结果。例如,n个元 素的集合共有2n个子集,所以要求出所有子集的算法将是O(2n)的 。指数算法一般说来是太复杂了,除非n的值非常小,因为,在 这个问题中增加一个元素就导致运行时间加倍。不幸的是,确实有许多问题 (如著名 的“巡回售货员问题” ),到目前为止找到的算法都是指数的。如果我们真的遇到这种情况, 通常应该用寻找近似最佳结果的算法替代之。


大数据处理需要用到的编程语言有哪些

R语言:为统计人员开发的一种语言,可以用R语言构建深奥的统计模型、数据探索以及统计分析等
Python语言:Python是数据分析利器,使用Python进行科学计算可以提高效率,Python可以替代Excel进行更高效的数据处理
java语言:Java是一门很适合大数据项目的编程语言,Hadoop、Spark、Storm、Flink、Flume、Kafka、Sqoop等大数据框架和工具都是用Java编写的,因此,大数据会不可避免的使用到Java。
Scala语言:Scala是一门轻松的语言,在JVM上运行,成功地结合了函数范式和面向对象范式


在大数据分析/挖掘领域,哪些编程语言应用最多

在大数据分析/挖掘领域,编程语言目前应用最多的应该是Python。Python并不简单,除了数据分析及挖掘,Python还被广泛运用到数据爬取、产品开发等领域。那么,Python究竟有什么样的优势,能受到这么多人的追捧呢?在我看来,主要有三大优势:1、强大的第三方库支持Python可以支持包括Numpy、Pandas、Matplotlib及Sklearn等第三方库。这些库能极大的提高你的数据清洗及处理能力,尤其是Pandas。利用Pandas,你可以极其方便的完成数据读取、重复值处理、数据哑变量化等操作,此外利用Sklearn,还可以简单的完成看似很高大上的机器学习算法。2、支持数据全流程的操作其实这点和第一点是相互呼应的,恰恰是因为强大的第三方库的支持,使得Python可以支持全流程的数据工作,具体包括数据的采集、数据的导入、数据的清洗与可视化操作等。让你使用一种语言,就完成这些操作,是不是非常心动呢?3、相对大体量的处理能力Python相对于Excel有着非常庞大的数据处理能力,Excel由于自身限制,只能处理105万行的数据,而另外风头很盛的R,数据量级上也逊色于Python。

上一篇:机器视觉定位

下一篇:多屏协同