
一些同学可能对计算机运行的速度还没有概念,就是感觉计算机运行速度应该会很快,那么在leetcode上做算法题目的时候为什么会超时呢? 计算机究竟1s可以执行多少次操作呢?接下来探讨一下这个问题。 超时是怎么回事
大家在leetcode上练习算法的时候应该都遇到过一种错误是“超时”。 也就是说程序运行的时间超过了规定的时间,一般OJ(online judge)的超时时间就是1s,也就是用例数据输入后最多要1s内得到结果,暂时还不清楚leetcode的判题规则,下文为了方便讲解,暂定超时时间就是1s。 如果写出了一个O(n)的算法 ,其实可以估算出来n是多大的时候算法的执行时间就会超过1s了。 如果n的规模已经足够让O(n)的算法运行时间超过了1s,就应该考虑log(n)的解法了。 从硬件配置看计算机的性能计算机的运算速度主要看CPU的配置,以2015年MacPro为例,CPU配置:2.7 GHz Dual-Core Intel Core i5 。 也就是 2.7 GHz 奔腾双核,i5处理器,GHz是指什么呢,1Hz = 1/s,1Hz 是CPU的一次脉冲(可以理解为一次改变状态,也叫时钟周期),称之为为赫兹,那么1GHz等于多少赫兹呢
所以 1GHz = 10亿Hz,表示CPU可以一秒脉冲10亿次(有10亿个时钟周期),这里不要简单理解一个时钟周期就是一次CPU运算。 例如1 + 2 = 3,cpu要执行四次才能完整这个操作,步骤一:把1放入寄存机,步骤二:把2放入寄存器,步骤三:做加法,步骤四:保存3。 而且计算机的cpu也不会只运行我们自己写的程序上,同时cpu也要执行计算机的各种进程任务等等,我们的程序仅仅是其中的一个进程而已。 所以我们的程序在计算机上究竟1s真正能执行多少次操作呢? 做个测试实验在写测试程序测1s内处理多大数量级数据的时候,有三点需要注意:
尽管有很多因素影响,但是还是可以对自己程序的运行时间有一个大体的评估的。 引用算法4里面的一段话:
所以「任何开发计算机程序员的软件工程师都应该能够估计这个程序的运行时间是一秒钟还是一年」。 这个是最基本的,所以以上误差就不算事了。 以下以C++代码为例: 测试硬件:2015年MacPro,CPU配置:2.7 GHz Dual-Core Intel Core i5 实现三个函数,时间复杂度分别是 O(n) , O(n^2), O(nlogn),使用加法运算来统一测试。 // O(n)void function1(long long n) { long long k = 0;8 Q! C3 }; v7 Z# Y; T8 i8 |& R2 P$ V for (long long i = 0; i < n; i++) {2 O2 \9 N+ @. Y8 Z k++;% I3 z) F! s R( u3 | }; F# V E _* A6 G6 S! a }- T8 L% |7 y3 ]% D/ x y b ; K/ \, D6 |/ ^3 C // O(n^2). ~, w4 d Y6 H' V2 X: n void function2(long long n) { long long k = 0;/ O1 w1 j/ i# O for (long long i = 0; i < n; i++) { for (long j = 0; j < n; j++) {% Q) D' R, l2 R k++; }5 s& q8 B" X9 E# x- q } * f. U' K- ~. o V( H } // O(nlogn) p+ B( |$ ^* R2 C6 p7 ]8 c" U void function3(long long n) {1 ~/ }+ \' f- j i0 e long long k = 0; for (long long i = 0; i < n; i++) { for (long long j = 1; j < n; j = j * 2) { // 注意这里j=1 k++; } }% R! O; W! r D8 t0 N# T3 L2 V$ | }% E6 D7 F1 w/ a: E# ^' c ! X# s6 K4 u4 e# [ 来看一下这三个函数随着n的规模变化,耗时会产生多大的变化,先测function1 ,就把 function2 和 function3 注释掉 int main() {long long n; // 数据规模2 |! s8 Z2 K( q9 w$ t# ?% e0 _3 K while (1) {. G' p! R8 c5 ]1 h3 ~* J8 v cout << "输入n:";3 n6 I) T. {/ u' d; V+ q. f: S5 o/ e: m0 q cin >> n; milliseconds start_time = duration_cast<milliseconds >(' k. e6 a" e5 E% F8 L; Y system_clock::now().time_since_epoch() );8 F5 l2 M1 U! _- r$ L! p function1(n);+ o- }+ g0 y# D9 Q% { // function2(n);' h+ x# U8 e' }" ~! s0 [" D0 E9 a // function3(n); milliseconds end_time = duration_cast<milliseconds >( system_clock::now().time_since_epoch() ); cout << "耗时:" << milliseconds(end_time).count() - milliseconds(start_time).count() <<" ms"<< endl;4 S# B4 U- E7 H } }* L3 o; ]' v) b/ s 来看一下运行的效果,如下图:
O(n)的算法,1s内大概计算机可以运行 5 * (10^8)次计算,可以推测一下O(n^2) 的算法应该1s可以处理的数量级的规模是 5 * (10^8)开根号,实验数据如下。
O(n^2)的算法,1s内大概计算机可以运行 22500次计算,验证了刚刚的推测。 在推测一下O(nlogn)的话, 1s可以处理的数据规模是什么呢? 理论上应该是比 O(n)少一个数量级,因为logn的复杂度 其实是很快,看一下实验数据。
这是在我个人PC上测出来的数据,不能说是十分精确,但数量级是差不多的,大家也可以在自己的计算机上测一下。 「整体测试数据整理如下:」
#include <chrono> c7 s; F8 Z; f. G' c | #include <thread>' J' ~* {7 X" o3 G( P* @, N using namespace std; using namespace chrono; // O(n)1 E* ]/ ?7 g; S4 @. Q: x void function1(long long n) {9 k( |: _, S& p: h5 ?# y long long k = 0; for (long long i = 0; i < n; i++) { k++;% d. ?7 D2 h; w- K }% r, i: K4 b U2 k }' z. s/ e" w9 ^9 a- e( {; Z* o : }6 a$ O2 F/ H( ] // O(n^2) void function2(long long n) {2 s7 Q2 \8 f7 A& `6 d; e( f long long k = 0; for (long long i = 0; i < n; i++) { for (long j = 0; j < n; j++) {# J* Y2 j6 C+ g1 P k++;9 f2 g o" H4 X2 g }" H1 m6 R' n8 S } }7 c+ X' H8 @: `% h // O(nlogn) void function3(long long n) { long long k = 0;! ^, Q2 ~8 ~ Q* U& w+ G for (long long i = 0; i < n; i++) { for (long long j = 1; j < n; j = j * 2) { // 注意这里j=1+ G7 L. M R) y& ]( w I. F k++; }) Q/ S) b' b2 v Z } }# m) { O$ m( ]7 B% s8 ^ int main() {9 U. V8 q3 a) G7 B long long n; // 数据规模) Y" n1 ^8 v& a% v, ?, [- M% Y while (1) {: d: o n& R4 S% K' l cout << "输入n:"; cin >> n; milliseconds start_time = duration_cast<milliseconds >(' O- G$ A5 o; B! F system_clock::now().time_since_epoch(), n, ~* V7 k; h; Z2 i& v );& J) C7 ?6 L$ Y) ]7 w0 A# r function1(n); // function2(n); // function3(n);5 _0 u0 K, ]0 }3 Q' v! N& x8 E/ a4 h milliseconds end_time = duration_cast<milliseconds >(* S; X. A5 u: U system_clock::now().time_since_epoch() ); cout << "耗时:" << milliseconds(end_time).count() - milliseconds(start_time).count() <<" ms"<< endl;& v/ V2 R! p4 S5 c$ F3 S }9 j% }& Y6 u6 C/ g } 总结 本文详细分析了在leetcode上做题程序为什么会有超时,以及从硬件配置上大体知道CPU的执行速度,然后亲自做一个实验来看看O(n)的算法,跑一秒钟,这个n究竟是做大,最后给出不同时间复杂度,一秒内可以运算出来的n的大小。 建议大家也都自己做一做实验,测一测,看看是不是和我的测出来的结果差不多。 这样,大家应该对程序超时时候的数据规模有一个整体的认识了。 3 D6 l7 n! Q' C6 L |