现在的位置: 首页 > 综合 > 正文

精确获取时间(QueryPerformanceCounter)

2013年11月15日 ⁄ 综合 ⁄ 共 3542字 ⁄ 字号 评论关闭

LARGE_INTEGER tima,timb;
QueryPerformanceCounter(&tima);

在 Windows Server 2003 和 WindowsXP 中使用 QueryPerformanceCounter 函数的程序可能执行不当

QueryPerformanceCounter 來精確計算執行時間
QueryPerformanceCounter 來精確計算執行時間
// 這個程式展示了如何使用QueryPerformanceCounter 來精確計算執行時間
//代码

  1. LARGE_INTEGER m_liPerfFreq={0};
  2.  //获取每秒多少CPU Performance Tick
  3.  QueryPerformanceFrequency(&m_liPerfFreq); 
  4.  LARGE_INTEGER m_liPerfStart={0};
  5.  QueryPerformanceCounter(&m_liPerfStart);
  6.  for(int i=0; i< 100; i++)
  7.   cout << i << endl;
  8.  LARGE_INTEGER liPerfNow={0};
  9.  // 计算CPU运行到现在的时间
  10.  QueryPerformanceCounter(&liPerfNow);
  11.  int time=( ((liPerfNow.QuadPart - m_liPerfStart.QuadPart) * 1000)/m_liPerfFreq.QuadPart);
  12.  char buffer[100];
  13.  sprintf(buffer,"執行時間 %d millisecond ",time);
  14.  cout<<buffer<<endl;

QueryPerformanceCounter()这个函数返回高精确度性能计数器的值,它可以以微妙为单位计时.但是QueryPerformanceCounter()确切的精确计时的最小单位是与系统有关的,所以,必须要查询系统以得到QueryPerformanceCounter()返回的嘀哒声的频率.
QueryPerformanceFrequency()提供了这个频率值,返回每秒嘀哒声的个数.
计算确切的时间是从第一次调用QueryPerformanceCounter()开始的
假设得到的LARGE_INTEGER为nStartCounter,过一段时间后再次调用该函数结束的,
设得到nStopCounter.
两者之差除以QueryPerformanceFrequency()的频率就是开始到结束之间的秒数.由于计时函数本身要耗费很少的时间,要减去一个很少的时间开销.但一般都把这个开销忽略.公式如下:   
                         nStopCounter-nStartCounter 
ElapsedTime=------------------------------------ - overhead 
frequency 

double time=(nStopCounter.QuadPart-nStartCounter.QuadPart)/frequency.QuadPart

 

 

这两个函数是VC提供的仅供Windows 95及其后续版本使用的精确时间函数,并要求计算机从硬件上支持精确定时器。
QueryPerformanceFrequency()函数和QueryPerformanceCounter()函数的原型如下:

       BOOL  QueryPerformanceFrequency(LARGE_INTEGER *lpFrequency);
       BOOL  QueryPerformanceCounter(LARGE_INTEGER *lpCount);

  数据类型ARGE_INTEGER既可以是一个8字节长的整型数,也可以是两个4字节长的整型数的联合结构, 其具体用法根据编译器是否支持64位而定。该类型的定义如下:

       typedef union _LARGE_INTEGER
       {
           struct
           {
              DWORD LowPart ;// 4字节整型数
              LONG  HighPart;// 4字节整型数
           };
           LONGLONG QuadPart ;// 8字节整型数
           
        }LARGE_INTEGER ;

  在进行定时之前,先调用QueryPerformanceFrequency()函数获得机器内部定时器的时钟频率, 然后在需要严格定时的事件发生之前和发生之后分别调用QueryPerformanceCounter()函数,利用两次获得的计数之差及时钟频率,计算出事件经 历的精确时间。下列代码实现1ms的精确定时:

 
  1.        LARGE_INTEGER litmp; 
  2.        LONGLONG QPart1,QPart2;
  3.        double dfMinus, dfFreq, dfTim; 
  4.        QueryPerformanceFrequency(&litmp);
  5.        dfFreq = (double)litmp.QuadPart;// 获得计数器的时钟频率
  6.        QueryPerformanceCounter(&litmp);
  7.        QPart1 = litmp.QuadPart;// 获得初始值
  8.        do
  9.        {
  10.           QueryPerformanceCounter(&litmp);
  11.           QPart2 = litmp.QuadPart;//获得中止值
  12.           dfMinus = (double)(QPart2-QPart1);
  13.           dfTim = dfMinus / dfFreq;// 获得对应的时间值,单位为秒
  14.        }while(dfTim<0.001);

  其定时误差不超过1微秒,精度与CPU等机器配置有关。 下面的程序用来测试函数Sleep(100)的精确持续时间:

 
  1.        LARGE_INTEGER litmp; 
  2.        LONGLONG QPart1,QPart2;
  3.        double dfMinus, dfFreq, dfTim; 
  4.        QueryPerformanceFrequency(&litmp);
  5.        dfFreq = (double)litmp.QuadPart;// 获得计数器的时钟频率
  6.        QueryPerformanceCounter(&litmp);
  7.        QPart1 = litmp.QuadPart;// 获得初始值
  8.        Sleep(100);
  9.        QueryPerformanceCounter(&litmp);
  10.        QPart2 = litmp.QuadPart;//获得中止值
  11.        dfMinus = (double)(QPart2-QPart1);
  12.        dfTim = dfMinus / dfFreq;// 获得对应的时间值,单位为秒    

  由于Sleep()函数自身的误差,上述程序每次执行的结果都会有微小误差。下列代码实现1微秒的精确定时:

 
  1.        LARGE_INTEGER litmp; 
  2.        LONGLONG QPart1,QPart2;
  3.        double dfMinus, dfFreq, dfTim; 
  4.        QueryPerformanceFrequency(&litmp);
  5.        dfFreq = (double)litmp.QuadPart;// 获得计数器的时钟频率
  6.        QueryPerformanceCounter(&litmp);
  7.        QPart1 = litmp.QuadPart;// 获得初始值
  8.        do
  9.        {
  10.           QueryPerformanceCounter(&litmp);
  11.           QPart2 = litmp.QuadPart;//获得中止值
  12.           dfMinus = (double)(QPart2-QPart1);
  13.           dfTim = dfMinus / dfFreq;// 获得对应的时间值,单位为秒
  14.        }while(dfTim<0.000001);

其定时误差一般不超过0.5微秒,精度与CPU等机器配置有关。


转自:http://blog.csdn.net/lsmdiao0812/archive/2008/10/29/3173374.aspx

抱歉!评论已关闭.