本文系itspy原创,复制/转载请尽量标明原出处http://blog.csdn.net/yyplc/article/details/7065722,谢谢!
Linux系统定时器,在内核中扮演着重要角色。内核的许多重要实现如任务调度,工作队列等均以系统定时器关系密切。系统定时器能以可编程的频率中断处理,这一中断叫做软中断。此频率即为每秒的定时器节拍数HZ。HZ的越大,说明定时器节拍越小,线程调度的准确性会越高。但HZ设得过大,对一个系统来说并不好,会导CPU开销过大,反而造成任务调度效率降低。滴答jiffies 变量记录系统启动以来,系统定时器已经触发的次数。也就是说每过一秒jiffies的增量为HZ,一般HZ=100,HZ是可以配置的,在S3C2440 arm
linux中配置为200.
下面基于Linux2.6.30.4源码来探讨其实现原理及其过程。
要理解系统定时器实现原理,先来看看关系到系统定时器的各种数据结构,其具体的描述参数。
结构体structtimer_list来描述timer的参数,其数据结构如下:
struct timer_list { structlist_head entry; //timer双向链表 unsignedlong expires; //timer超时变量 void(*function)(unsigned long); //timer超时回调函数 unsignedlong data; //传递给回调函数的数据,也就是定时器数据 struct tvec_base *base; //timer base向量表用于timer_list的挂载和链表管理 //timer的一些扩展参数 #ifdef CONFIG_TIMER_STATS void*start_site; charstart_comm[16]; intstart_pid; #endif #ifdef CONFIG_LOCKDEP structlockdep_map lockdep_map; #endif };
其中:
list_entry结构: struct list_head { structlist_head *next, *prev; }; tevc_base的结构: struct tvec_base { spinlock_tlock; //自旋锁lock structtimer_list *running_timer; //指向已经挂载进来的timer_list unsignedlong timer_jiffies; //timer jiffies用于记录定时器当前jiffies structtvec_root tv1; //5组tvec_base,从tv1~tv5,成员数各不相同 structtvec tv2; //其成员数TVR_SIZE,TVN_SIZE决定 structtvec tv3; structtvec tv4; structtvec tv5; } ____cacheline_aligned; #define TVN_BITS (CONFIG_BASE_SMALL ? 4 :6) #define TVR_BITS (CONFIG_BASE_SMALL ? 6 :8) #define TVN_SIZE (1 << TVN_BITS) #define TVR_SIZE (1 << TVR_BITS) #define TVN_MASK (TVN_SIZE - 1) #define TVR_MASK (TVR_SIZE - 1) struct tvec { structlist_head vec[TVN_SIZE]; // tv2~t5个数为64的数组 }; struct tvec_root { structlist_head vec[TVR_SIZE]; //tv1个数为256的数组 };
可见涉及到系统定时器的数据结构并不多,那么:对于一个linux系统中,定时器个数可能会很多,而且每个定时器的超时事件时间并不相同,所以如何管理和处理定时器超时事件,关系到内核性能的高低。它根据不同的定时事件,按时间间分组,将新增的timer定时器建成双向链表,然后按照一定方式存放于5组tv1~tv5变量中称为tec_base。对于对称式多理器(SMP)系统还考虑到了TIMER从一个CPU迁移到另一个CPU的情况,相应的tev_base也跟着更改。那它在系统是怎样实现的呢?现在先从一个简单的系统定时器应用例子来看看它的实现过程:
#include <linux/init.h> #include <linux/module.h> #include <linux/timer.h> struct timer_list my_timer; static void my_function(unsigned long data) { static int i = 0; printk( "timer’s callback function\n"); printk( "timer’s data = %lu\n",data); return; } static int my_timer_init(void) { printk(“timerinit…\n”); my_timer.data = 0xff; my_timer.function = my_function; my_timer.expires = jiffies + 3*HZ; init_timer(&my_timer); add_timer(&my_timer); return 0; } static void my_timer_exit(void) { printk( "timer exit…\n"); } module_init(my_timer_init); module_exit(my_timer_exit); MODULE_AUTHOR( "itspy"); MODULE_LICENSE( "GPL"); MODULE_DESCRIPTION("linux kernel timerprogramming");
上面例子,实现了一个定时器事件,将在3 HZ(秒)发生。my_imer_init函数中调用到的定时器API只有:
init_timer(&my_timer); //用于定时器初始化
add_timer(&my_timer); //增加一个新的定时器到tev_base向量表中
其中init_timer中调用了__init_timer(),这个函数才是真正初始化定时器的:
static void __init_timer(struct timer_list*timer, const char *name, struct lock_class_key *key) { timer->entry.next= NULL; //对于新增的timer实例,其下一各总是指向NULL。 timer->base= __raw_get_cpu_var(tvec_bases); //SMP中,获得当前处理器的tev_base //这个tev_bases是根据一定规律变化的,稍后会将到 … }
新增的定时器初始化,就是完成了一个timer_list结构初始化过程。
add_timer() --> mod_timer() --> __mod_timer()
其中:
static inline int __mod_timer(struct timer_list *timer,unsigned long expires, bool pending_only) { structtvec_base *base, *new_base; unsignedlong flags; intret; ret= 0; BUG_ON(!timer->function); // BUG检测,确保回调函数为非空NULL base= lock_timer_base(timer, &flags); //获取本地cpu的tev_base,这是一个临 //界资源,里边是一个for(;;)循环,如果找不到说明已经迁移到了别的CPU if (timer_pending(timer)) { //当已挂载的timer 定时超时发生后,会被卸载摘除 detach_timer(timer,0); ret= 1; }else { if(pending_only) //新增一个定时器时,pending_only 为 false gotoout_unlock; } … new_base= __get_cpu_var(tvec_bases); //获取本地cpu中的tevc_bases if(base != new_base) { //由于之前base 可能已被迁移到其他CPU的 tev_base向量表,会造成 base != new_base if(likely(base->running_timer != timer)) { //由于在timer正在运行时,我们不能直接更改base,位与一个叫做DEFERRABLE(可延后标志)后处理 /*See the comment in lock_timer_base() */ timer_set_base(timer,NULL); spin_unlock(&base->lock); base= new_base; spin_lock(&base->lock); timer_set_base(timer,base); } } timer->expires= expires; internal_add_timer(base,timer); //分析timer expires及建表过程 out_unlock: spin_unlock_irqrestore(&base->lock,flags); return ret; }
对于新增的timer最后调用internal_add_timer(base, timer)加入到相应的timer_list中以完成初始化过程。,这是一个建表的过程,表的建立情况,关系到表的管理效率。之前我们说到它共有tv1~tv5 组,tv1是一个很特别的组。每个tv中有各个组员,每个timer是如何添加的呢,看看internal_add_timer()的实现过程:
static void internal_add_timer(structtvec_base *base, struct timer_list *timer) { unsignedlong expires = timer->expires; unsignedlong idx = expires - base->timer_jiffies; structlist_head *vec; if(idx < TVR_SIZE) { inti = expires & TVR_MASK; vec= base->tv1.vec + i; }else if (idx < 1 << (TVR_BITS + TVN_BITS)) { inti = (expires >> TVR_BITS) & TVN_MASK; vec= base->tv2.vec + i; }else if (idx < 1 << (TVR_BITS + 2 * TVN_BITS)) { inti = (expires >> (TVR_BITS + TVN_BITS)) & TVN_MASK; vec= base->tv3.vec + i; }else if (idx < 1 << (TVR_BITS + 3 * TVN_BITS)) { inti = (expires >> (TVR_BITS + 2 * TVN_BITS)) & TVN_MASK; vec= base->tv4.vec + i; }else if ((signed long) idx < 0) { /* * Can happen if you add a timer with expires== jiffies, * or you set a timer to go off in the past */ vec= base->tv1.vec + (base->timer_jiffies & TVR_MASK); }else { inti; /*If the timeout is larger than 0xffffffff on 64-bit * architectures then we use the maximumtimeout: */ if(idx > 0xffffffffUL) { idx= 0xffffffffUL; expires= idx + base->timer_jiffies; } i= (expires >> (TVR_BITS + 3 * TVN_BITS)) & TVN_MASK; vec= base->tv5.vec + i; } /* * Timers are FIFO: */ list_add_tail(&timer->entry,vec); }
通过代码我们知道它的过程是这样的:首先它根据每个timer中的超时差值idx来决定timer所处的tev_base组别tv1~tv5.所以超时事件越后发生,那么它所处的组位置越靠后。对于tv1组,超时插值idx为0~255之间。差值idx即为所属组tv1中的数组下标。从中可知tv1组中相邻定时器的超时事件间隔1 jiffies发生。对于tv2组,超时差值idx为
256~2^14(16386) 之间,组中相邻定时时器超事件时间隔256^1 = 256 jiffies发生。以此类推,tv3 组超时差值idx为(16387~2^20)之间,组中相邻定时器超时时间间隔256^2 = 65536 jiffies发生 … 最后,新增的timer加入到当前节点(超时差值相等)的尾部list_add_tail()形成一个双向链表。这样分组timer双向链表方便了后面对定时器的迁移更新管理过程,以及最终提高了CPU的处理效率,因为在__run_timers()时,我们只需扫描tv1组中即将到来的定时器事件就行了。
我们知道启动过程时start_kernel()对定时器的初始化是这样的 :
init_timers() -> run_timer_softirq() -> __run_timers()…
timer_interrupt() -> update_process_times() ->run_local_timers() -> raise_softirq(TIMER_SOFTIRQ);
之前我写的一篇《内核窥秘之一:start_kernel()运行过程记录》也有提到过.
__run_timers()是系统定时器超时事件的服务程序。这是run_timer_softirq()中一部分,是通过软中断的实现的,它是在软中断下半部处理的。
static inline void __run_timers(structtvec_base *base) { … while(time_after_eq(jiffies, base->timer_jiffies)) { //确定当前tvec_base->timer_jiffies是否有效 structlist_head work_list; structlist_head *head = &work_list; intindex = base->timer_jiffies & TVR_MASK; //只需扫描tv1组,看当前jiffies时刻是否有超时发生 if(!index && //cascade()定时器队列级联函数实现了 (!cascade(base,&base->tv2, INDEX(0))) && //tv5~tv2组迁移过程 (!cascade(base,&base->tv3, INDEX(1))) && !cascade(base,&base->tv4, INDEX(2))) cascade(base,&base->tv5, INDEX(3)); ++base->timer_jiffies; //更新当前tvec_base->timer_jiffies list_replace_init(base->tv1.vec+ index, &work_list); //链表更新新、旧取代 while(!list_empty(head)) { //判定是否有定时器超时事件发生,非空为有,知道处理完链表中所有相同的定时器事件为止 void(*fn)(unsigned long); unsignedlong data; timer= list_first_entry(head, struct timer_list,entry); // 这是一个宏,获取第一个实体(对应的是入口的下一个)的地址 fn= timer->function; data= timer->data; … fn(data); //timer超时时回调函数入口 … } } … }
对于cascade()函数它是确保之前定时器建立时internal_add_timer()定时器队列以及队列租得迁移更新工作,为什么要迁移,因为,系统在处理定时器时,比较的只是tv1组而已,也就是说,原来的tv1执行完之后,那么剩下的tv2,tv3,tv4,tv5将会先后迁移到tv1组:tv5 -> tv4 -> tv3 -> tv2-> tv1,这样定时器超时事件服务程序并不需要对每组的tv的超时事件进行检测,相比而言,也就提高了CPU的处理效率。那么这样一来timer 链表将发生变化,所以需要重新计算,重新实现internal_add_timer(),所以cascade
()函数代码如下:
tatic int cascade(struct tvec_base *base,struct tvec *tv, int index) { /*cascade all the timers from tv up one level */ structtimer_list *timer, *tmp; structlist_head tv_list; list_replace_init(tv->vec+ index, &tv_list); // list_for_each_entry_safe(timer,tmp, &tv_list, entry) { BUG_ON(tbase_get_base(timer->base)!= base); //确保本地cpu 的tvec_base没 internal_add_timer(base,timer); //有发生改变 } return index; }
通过以上分析,我们对Linux中系统定时器TIMER实现过程有所了解了。