clock()、time()、clock_gettime()和gettimeofday()函數的用法和區別【轉】

轉自:http://www.cnblogs.com/krythur/archive/2013/02/25/2932647.htmlhtml

轉自http://blog.sina.com.cn/s/blog_790f5ae10100rwd3.htmllinux

 

一)ANSI clock函數 bash


1)概述:
clock 函數的返回值類型是clock_t,它除以CLOCKS_PER_SEC來得出時間,通常用兩次clock函數來計算進程自身運行的時間.ide

ANSI clock有三個問題:
1)若是超過一個小時,將要致使溢出.
2)函數clock沒有考慮CPU被子進程使用的狀況.
3)也不能區分用戶空間和內核空間.函數

因此clock函數在linux系統上變得沒有意義.oop

2)測試
編寫test1.c程序,測試採用clock函數的輸出與time程序的區別.post

vi test1.c
#include <stdio.h>
#include <stdlib.h>
#include <time.h>測試

int main( void )
{
   long i=1000L;
   clock_t start, finish;
   double  duration;
   printf( "Time to do %ld empty loops is ", i );
   start = clock();
   while (--i){
    system("cd");
   }
   finish = clock();
   duration = (double)(finish - start) / CLOCKS_PER_SEC;
   printf( "%f seconds\n", duration );
   return 0;
}ui

gcc test1.c -o test1this

time ./test1
Time to do 1000 empty loops is 0.180000 seconds

real    0m3.492s
user    0m0.512s
sys     0m2.972s

3)總結:
(1)程序調用 system("cd");,這裏主要是系統模式子進程的消耗,test1程序不能體現這一點.
(2)0.180000 seconds秒的消耗是兩次clock()函數調用除以CLOCKS_PER_SEC.
(3)clock()函數返回值是一個相對時間,而不是絕對時間.
(4)CLOCKS_PER_SEC是系統定義的宏,由GNU標準庫定義爲1000000.


二)times()時間函數

1)概述:

原型以下:
clock_t times(struct tms *buf);

tms結構體以下:
strace tms{
 clock_t tms_utime;
 clock_t tms_stime;
 clock_t tms_cutime;
 clock_t tms_cstime;
}

註釋:
tms_utime記錄的是進程執行用戶代碼的時間.
tms_stime記錄的是進程執行內核代碼的時間.
tms_cutime記錄的是子進程執行用戶代碼的時間.
tms_cstime記錄的是子進程執行內核代碼的時間.


2)測試:

vi test2.c
#include <sys/times.h>
#include <stdio.h>
#include <stdlib.h>
#include <sys/types.h>
#include <unistd.h>

static void do_cmd(char *);
static void pr_times(clock_t, struct tms *, struct tms *);

int main(int argc, char *argv[]){
        int i;
        for(i=1; argv[i]!=NULL; i++){
                do_cmd(argv[i]);
        }
        exit(1);
}
static void do_cmd(char *cmd){
        struct tms tmsstart, tmsend;
        clock_t start, end;
        int status;
        if((start=times(&tmsstart))== -1)
                puts("times error");
        if((status=system(cmd))<0)
                puts("system error");
        if((end=times(&tmsend))== -1)
                puts("times error");
        pr_times(end-start, &tmsstart, &tmsend);
        exit(0);
}
static void pr_times(clock_t real, struct tms *tmsstart, struct tms *tmsend){
        static long clktck=0;
        if(0 == clktck)
                if((clktck=sysconf(_SC_CLK_TCK))<0)
                           puts("sysconf err");
        printf("real:%7.2f\n", real/(double)clktck);
        printf("user-cpu:%7.2f\n", (tmsend->tms_utime - tmsstart->tms_utime)/(double)clktck);
        printf("system-cpu:%7.2f\n", (tmsend->tms_stime - tmsstart->tms_stime)/(double)clktck);
        printf("child-user-cpu:%7.2f\n", (tmsend->tms_cutime - tmsstart->tms_cutime)/(double)clktck);
        printf("child-system-cpu:%7.2f\n", (tmsend->tms_cstime - tmsstart->tms_cstime)/(double)clktck);
}

編譯:
gcc test2.c -o test2

測試這個程序:
time ./test2 "dd if=/dev/zero f=/dev/null bs=1M count=10000"
10000+0 records in
10000+0 records out
10485760000 bytes (10 GB) copied, 4.93028 s, 2.1 GB/s
real:   4.94
user-cpu:   0.00
system-cpu:   0.00
child-user-cpu:   0.01
child-system-cpu:   4.82

real    0m4.943s
user    0m0.016s
sys     0m4.828s


3)總結:
(1)經過這個測試,系統的time程序與test2程序輸出基本一致了.
(2)(double)clktck是經過clktck=sysconf(_SC_CLK_TCK)來取的,也就是要獲得user-cpu所佔用的時間,就要用
(tmsend->tms_utime - tmsstart->tms_utime)/(double)clktck);
(3)clock_t times(struct tms *buf);返回值是過去一段時間內時鐘嘀嗒的次數.
(4)times()函數返回值也是一個相對時間.

三)實時函數clock_gettime

在POSIX1003.1中增添了這個函數,它的原型以下:
int clock_gettime(clockid_t clk_id, struct timespec *tp);

它有如下的特色:
1)它也有一個時間結構體:timespec ,timespec計算時間次數的單位是十億分之一秒.
strace timespec{
 time_t tv_sec;
 long tv_nsec;
}

2)clockid_t是肯定哪一個時鐘類型.

CLOCK_REALTIME: 標準POSIX實時時鐘
CLOCK_MONOTONIC: POSIX時鐘,以恆定速率運行;不會復位和調整,它的取值和CLOCK_REALTIME是同樣的.
CLOCK_PROCESS_CPUTIME_ID和CLOCK_THREAD_CPUTIME_ID是CPU中的硬件計時器中實現的.


3)測試:
#include<time.h>
#include<stdio.h>
#include<stdlib.h>

#define MILLION 1000000


int main(void)
{
        long int loop = 1000;
        struct timespec tpstart;
        struct timespec tpend;
        long timedif;

        clock_gettime(CLOCK_MONOTONIC, &tpstart);

        while (--loop){
                system("cd");
        }

        clock_gettime(CLOCK_MONOTONIC, &tpend);
        timedif = MILLION*(tpend.tv_sec-tpstart.tv_sec)+(tpend.tv_nsec-tpstart.tv_nsec)/1000;
        fprintf(stdout, "it took %ld microseconds\n", timedif);

        return 0;
}

編譯:
gcc test3.c -lrt -o test3

計算時間:
time ./test3
it took 3463843 microseconds

real    0m3.467s
user    0m0.512s
sys     0m2.936s


四)時間函數gettimeofday()

1)概述:
gettimeofday()能夠得到當前系統的時間,是一個絕對值

原型以下:
int gettimeofday ( struct timeval * tv , struct timezone * tz )

timeval結型體的原型以下:
struct timeval {
               time_t      tv_sec;    
               suseconds_t tv_usec;   
           };

因此它能夠精確到微秒


測試:
#include <sys/time.h>
#include <stdio.h>
#include <unistd.h>
int
main(){
        int i=10000000;
        struct timeval tvs,tve;
        gettimeofday(&tvs,NULL);
        while (--i);
        gettimeofday(&tve,NULL);
        double span = tve.tv_sec-tvs.tv_sec + (tve.tv_usec-tvs.tv_usec)/1000000.0;
        printf("time: %.12f\n",span);
        return 0;
}

gcc test5.c
./a.out
time: 0.041239000000

五)四種時間函數的比較

1)精確度比較:

如下是各類精確度的類型轉換:
1秒=1000毫秒(ms), 1毫秒=1/1000秒(s);
1秒=1000000 微秒(μs), 1微秒=1/1000000秒(s);
1秒=1000000000 納秒(ns),1納秒=1/1000000000秒(s);


2)
clock()函數的精確度是10毫秒(ms)
times()函數的精確度是10毫秒(ms)
gettimofday()函數的精確度是微秒(μs)
clock_gettime()函數的計量單位爲十億分之一,也就是納秒(ns)


3)測試4種函數的精確度:

vi test4.c


#include    <stdio.h>
#include    <stdlib.h>
#include    <unistd.h>
#include    <time.h>
#include    <sys/times.h>
#include    <sys/time.h>
#define WAIT for(i=0;i<298765432;i++);
#define MILLION    1000000
    int
main ( int argc, char *argv[] )
{
    int i;
    long ttt;
    clock_t s,e;
    struct tms aaa;



    s=clock();
    WAIT;
    e=clock();
    printf("clock time : %.12f\n",(e-s)/(double)CLOCKS_PER_SEC);


    long tps = sysconf(_SC_CLK_TCK);
    s=times(&aaa);
    WAIT;
    e=times(&aaa);
    printf("times time : %.12f\n",(e-s)/(double)tps);


    struct timeval tvs,tve;
    gettimeofday(&tvs,NULL);
    WAIT;
    gettimeofday(&tve,NULL);
    double span = tve.tv_sec-tvs.tv_sec + (tve.tv_usec-tvs.tv_usec)/1000000.0;
    printf("gettimeofday time: %.12f\n",span);


    struct timespec tpstart;
    struct timespec tpend;

    clock_gettime(CLOCK_REALTIME, &tpstart);
    WAIT;
    clock_gettime(CLOCK_REALTIME, &tpend);
    double timedif = (tpend.tv_sec-tpstart.tv_sec)+(tpend.tv_nsec-tpstart.tv_nsec)/1000000000.0;
    printf("clock_gettime time: %.12f\n", timedif);

    return EXIT_SUCCESS;
}

gcc -lrt test4.c -o test4
debian:/tmp# ./test4
clock time : 1.190000000000
times time : 1.180000000000
gettimeofday time: 1.186477000000
clock_gettime time: 1.179271718000

六)內核時鐘

默認的Linux時鐘週期是100HZ,而如今最新的內核時鐘週期默認爲250HZ.
如何獲得內核的時鐘週期呢?
grep ^CONFIG_HZ /boot/config-2.6.26-1-xen-amd64

CONFIG_HZ_250=y
CONFIG_HZ=250

結果就是250HZ.

而用sysconf(_SC_CLK_TCK);獲得的倒是100HZ
例如:

#include    <stdio.h>
#include    <stdlib.h>
#include    <unistd.h>
#include    <time.h>
#include    <sys/times.h>
#include    <sys/time.h>

int
main ( int argc, char *argv[] )
{

    long tps = sysconf(_SC_CLK_TCK);
    printf("%ld\n", tps);
   
    return EXIT_SUCCESS;
}

爲何獲得的是不一樣的值呢?
由於sysconf(_SC_CLK_TCK)和CONFIG_HZ所表明的意義是不一樣的.
sysconf(_SC_CLK_TCK)是GNU標準庫的clock_t頻率.
它的定義位置在:/usr/include/asm/param.h

例如:
#ifndef HZ
#define HZ 100
#endif

最後總結一下內核時間:
內核的標準時間是jiffy,一個jiffy就是一個內部時鐘週期,而內部時鐘週期是由250HZ的頻率所產生中的,也就是一個時鐘滴答,間隔時間是4毫秒(ms).

也就是說:
1個jiffy=1個內部時鐘週期=250HZ=1個時鐘滴答=4毫秒

每通過一個時鐘滴答就會調用一次時鐘中斷處理程序,處理程序用jiffy來累計時鐘滴答數,每發生一次時鐘中斷就增1.
而每一箇中斷以後,系統經過調度程序跟據時間片選擇是否要進程繼續運行,或讓進程進入就緒狀態.

最後須要說明的是每一個操做系統的時鐘滴答頻率都是不同的,LINUX能夠選擇(100,250,1000)HZ,而DOS的頻率是55HZ.

七)爲應用程序計時

用time程序能夠監視任何命令或腳本佔用CPU的狀況.

1)bash內置命令time
例如:
time sleep 1

real    0m1.016s
user    0m0.000s
sys     0m0.004s


2)/usr/bin/time的通常命令行
例如:
\time sleep 1
0.00user 0.00system 0:01.01elapsed 0%CPU (0avgtext+0avgdata 0maxresident)k
0inputs+0outputs (1major+176minor)pagefaults 0swaps

注:
在命令前加上斜槓能夠繞過內部命令.
/usr/bin/time還能夠加上-v看到更具體的輸出:
\time -v sleep 1
        Command being timed: "sleep 1"
        User time (seconds): 0.00
        System time (seconds): 0.00
        Percent of CPU this job got: 0%
        Elapsed (wall clock) time (h:mm:ss or m:ss): 0:01.00
        Average shared text size (kbytes): 0
        Average unshared data size (kbytes): 0
        Average stack size (kbytes): 0
        Average total size (kbytes): 0
        Maximum resident set size (kbytes): 0
        Average resident set size (kbytes): 0
        Major (requiring I/O) page faults: 0
        Minor (reclaiming a frame) page faults: 178
        Voluntary context switches: 2
        Involuntary context switches: 0
        Swaps: 0
        File system inputs: 0
        File system outputs: 0
        Socket messages sent: 0
        Socket messages received: 0
        Signals delivered: 0
        Page size (bytes): 4096
        Exit status: 0
       
這裏的輸出更多來源於結構體rusage.

最後,咱們看到real time大於user time和sys time的總和,這說明進程不是在系統調用中阻塞,就是得不到運行的機會.而sleep()的運用,也說明了這一點.

相關文章
相關標籤/搜索