现在的位置: 首页 > 综合 > 正文

Gloomy对Windows内核的分析(内存与进程管理器)

2013年09月14日 ⁄ 综合 ⁄ 共 35455字 ⁄ 字号 评论关闭

内存与进程管理器
==========================

                                   But I fear tomorrow I'll be crying,
                                   Yes I fear tomorrow I'll be crying.

                                                  King Crimson'69 -Epitaph

关于Windows NT内存管理器的高层次信息已经够多的了,所以这里不会再讲什么FLAT模型、
虚拟内存之类的东西。这里我们只讲具体的底层的东西。我假定大家都了解>i386的体系结构

目录
==========
     00.内核进程线程结构体
     01.页表
     02.Hyper Space
     03.System PTE'S
     04.Frame data base (MmPfnDatabase)
     05.Working Set
     06.向pagefile换页
     07.page fault的处理
     08.从内存管理器角度看进程的创建
     09.上下文切换
     0a.某些未公开的内存管理器函数
     0b.结语

附录
     0c.某些未公开的系统调用
     0d.附注及代码分析草稿

00.内核进程线程结构体
===================================

Windows NT中的每一个进程都是EPROCESS结构体。此结构体中除了进程的属性之外还引用了
其它一些与实现进程紧密相关的结构体。例如,每个进程都有一个或几个线程,线程在系统
中就是ETHREAD结构体。我来简要描述一下存在于这个结构体中的主要的信息,这些信息都是
由对内核函数的研究而得知的。首先,结构体中有KPROCESS结构体,这个结构体中又有指向
这些进程的内核线程(KTHREAD)链表的指针(分配地址空间),基优先级,在内核模式或是
用户模式执行进程的线程的时间,处理器affinity(掩码,定义了哪个处理器能执行进程的
线程),时间片值。在ETHREAD结构体中还存在着这样的信息:进程ID、父进程ID、进程映象
名、section指针。quota定义了所能使用的分页和非分页池的极限值。VAD(virtual  addr
ess  descriptors)树定义了用户地址空间内存区的状况。关于Working Set的信息定义了在
给定时间内有那些物理页是属于进程的。同时还有limit与statistics。ACCESS TOKEN描述了
当前进程的安全属性。句柄表描述了进程打开的对象的句柄。该表允许不在每一次访问对象
时检查访问权限。在EPROCESS结构体中还有指向PEB的指针。

ETHREAD结构体还包含有创建时间和退出时间、进程ID和指向EPROCESS的指针,启动地址,I
/O请求链表和KTHREAD结构体。在KTHREAD中包含有以下信息:内核模式和用户模式线程的创
建时间,指向内核堆栈基址和顶点的指针、指向服务表的指针、基优先级与当前优先级、指
向APC的指针和指向TEB的指针。KTHREAD中包含有许多其它的数据,通过观察这些数据可以分
析出KTHREAD的结构。

01.页表
==================

通常操作系统使用页表来进行内存操作。在Windows NT中,每一个进程都有自己私有的页表
(进程的所有线程共享此页表)。相应的,在进程切换时会发生页表的切换。为了加快对页
表的访问,硬件中有一个translation lookaside buffer(TLB)。在Windows NT中实现了两
级的转换机制。在386+处理器上将虚拟地址转换为物理地址过程(不考虑分段)如下:

 Virtual Address
+-------------------+-------------------+-----------------------+
|3 3 2 2 2 2 2 2 2 2|2 2 1 1 1 1 1 1 1 1|1 1                    |
|1 0 9 8 7 6 5 4 3 2|1 0 9 8 7 6 5 4 3 2|1 0 9 8 7 6 5 4 3 2 1 0|
+-------------------+-------------------+-----------------------+
|  Directory index  |  Page Table index |    Offset in page     |
+-+-----------------+----+--------------+-----+-----------------+
  |                      |                    |
  |                      |                    |
  |  Page Directory (4Kb)|  Page Table (4Kb)  |    Frame(4Kb)
  |  +-------------+     |  +-------------+   |  +-------------+
  |  |     0       |     |  |     0       |   |  |             |
  |  +-------------+     |  +-------------+   |  |             |
  |  |     1       |     |  |     1       |   |  |             |
  |  +-------------+     |  +-------------+   |  |             |
  |  |             |     +->|    PTE      +-+ |  |             |
  |  +-------------+        +-------------+ | |  | ----------- |
  +->|    PDE      +-+      |             | | +->| byte        |
     +-------------+ |      +-------------+ |    | ----------- |
     |             | |      |             | |    |             |
     +-------------+ |      +-------------+ |    |             |
     |             | |      |             | |    |             |
        ...          |        ...           |    |             |
     |    1023     | |      |    1023     | |    |             |
CR3->+-------------+ +----->+-------------+ +--->+-------------+

Windows NT 4.0使用平面寻址。NT的地址空间为4G。这4G地址空间中,低2G(地址0-0x7fff
ffff)属于当前用户进程,而高2G(0x80000000-0xffffffff)属于内核。在上下文切换时,
要更新CR3寄存器的值,结果就更换了用户地址空间,这样就达到了进程间相互隔绝的效果。

注:在Windows NT中,从第4版起,除4Kb的页之外同时还使用了4Mb的页(Pentium及更高)
来映射内核代码。但是在Windows NT中没有实际对可变长的页提供支持。

PTE和PDE的格式实际上是一样的。

PTE
+---------------+---------------+---------------+---------------+
|3 3 2 2 2 2 2 2|2 2 2 2 1 1 1 1|1 1 1 1 1 1    |               |
|1 0 9 8 7 6 5 4|3 2 1 0 9 8 7 6|5 4 3 2 1 0 9 8|7 6 5 4 3 2 1 0|
+---------------------------------------+-----------------------+
|                                       |T P C U R D A P P U R P|
|  Base address 20 bits                 |R P W         C W S W  |
|                                       |N T           D T      |
+---------------------------------------+-----------------------+

一些重要的位在i386+下的定义如下:
---------------------------------------------------------------------------
P     - 存在位。此位如果未设置,则在地址转换时会产生异常。一般说来,在一些情况下
NT内核会使用未设置此位的PTE。
        例如,如果向pagefile换出页,保留这些位可以说明其在页面文件中的位置和page
file号。
U/S   - 是否能从user模式访问页。正是借助于此位提供了对内核空间的保护(通常为高2G
)。
RW    - 是否能写入

NT使用的为OS设计者分配的空闲位
---------------------------------------------------------------------------
PPT   - proto pte
TRN   - transition pte

当P位未设置时,第5到第9位即派上用场(用于page fault处理)。它们叫做Protection Ma
sk,样子如下:
--------------------------------------------------------------------------------
------

* MiCreatePagingFileMap

9 8 7 6 5
---------
| | | | |
| | | | +- Write Copy
| | | +--- Execute
| | +----- Write
| +------- NO CACHE
+--------- Guard

GUARD | NOCACHE组合就是NO ACCESS

* MmGetPhysicalAddress

函数很短,但能从中获得很多信息。在虚地址0xc0000000  -  0xc03fffff上映射有进程的页
表。并且,映射的机制非常精巧。在Directory Table(以下称DT)有1100000000b个表项(
对应于地址0xc000..-0xc03ff..)指向自己,也就是说对于这些地址DT用作了页表(Page T
able)!如果我们使用,比如说,地址(为方便起见使用二进制)

     1100000000.0000000101.0000001001.00b
        ---------- ---------- --------------
     0xc0...    页表选择   页表内偏移
     页目录      
           
通过页表101b的1001b号,我们得到了PTE。但这还没完——DT本身映射在地址0xc0300000-0
xc0300ffc上。在MmSystemPteBase中有值0xc0300000。为什么这样——看个例子就知道了:

     1100000000.1100000000.0000001001.00b
        ---------- ---------- --------------
     0xc0...    0xc0...    页目录偏移
     页目录     页表-
                页目录
                选择
               
最后,在c0300c00包含着用于目录本身的PDE。这个PDE的基地址的值保存在MmSystemPageDi
rectory中。同时系统为映射物理页MmSystemPageDirectory保留了一个PTE,这就是MmSyste
mPagePtes。

这样做能简化寻址操作。例如,如果有PTE的地址,则PTE描述的页的地址就等于PTE<<10。反
过来:PTE=(Addr>>10)+0xc0000000。

除此之外,在内核中存在着全局变量MmKseg2Frame = 0x20000。该变量指示在从0x80000000
开始的哪个地址区域直接映射到了物理内存,也就是说,此时虚拟地址0x80000000 - 0x9ff
fffff映射到了物理地址00000000-1f000000。

还有几个有意思的地方。从c0000000开始有个0x1000*0x200=0x200000=2M的描述地址的表(
0-7fffffff)。描述这些页的PDE位于地址c0300000-0xc03007fc。对于i486,在地址c02000
00-c027fffc应该是描述80000000到a0000000的512MB的表,但对于Pentium在区域0xc030080
0-0xc03009fc是4MB的PDE,其描述了从0 到1fc00000的步长为00400000的4M的物理页,也就
是说选择了4M的页。对应于这些PDE的虚地址为80000000, 9fffffff。

这样我们就得到了页表的分布:

范围 c0000000 - c01ffffc  用于00000000-7fffffff的页表
范围 c0200000 - c027ffff  "吃掉" 4M地址页的地址
范围 c0280000 - c02ffffc  包含用于a0000000 - bfffffff的页
范围 c0300000 - c0300ffc  PD 本身 (描述范围c0000000 - c03fffff)
范围 c0301000 - c03013fc  c0400000 - c04fffff HyperSpace  (更准确的说, 是1/4的hy
per space)
范围 c0301400 - c03fffff  包含用于c050000 - ffffffff的页

注:在0xc0301000-0xc0301ffc包含有描述hyper space的页表。这是内核的地址空间,且对
于不同的进程映射的内容是不同的(另一方面,内核空间又总是在每个用户进程的上下文中
)。这是进程私有的区域。例如,working set就位于hyper space中。页表的前256个PTE(
hyper space的前1/4)为内核保留,而且在需要快速向frame中映射虚拟地址时使用。

我给出一个向区域0xc0200000-0xc027f000中一个地址进行映射的例子。

1100000000.1000000000.000000000000 = 0xc0200000

1) 解析出 PDE #1100000000 (4k 页) 并选出 PageDirectory
2) 在 Directory 中选出 PTE #1000000000 (c0300800)
   这是个 4MB 的 PDE - 但这里忽略位长度,
   因为 PDE 用作了 PTE. 结果 c0200000 - c0200fff 被映射为
   80000000-80000fff

   c0201000 映射到下面的 - 80400000- 80400fff.
   等等直到 c027f000 - 9fc00000

PTE, 位于c0200000到c027fffc - 描述了80000000 -  9ffffc00 (512m)

02.Hyper Space
==============

HyperSpace是内核空间中的一块区域 (4mb), 不同的进程映射内容不同。对于转换,4MB足够
放下页表完整的一页。这个表位于地址0xc0301000 - 0xc0301ffc(PDE的第0个表项位于0xc
0300c04)。在内部,为向HyperSpace区域中映射物理页(当需要快速为某个frame组织虚拟
地址时)要使用函数:

DWORD MiMapPageInHyperSpace(DWORD BaseAddr,OUT PDWORD Irql);

它返回HyperSpace中的虚拟地址,这个虚拟地址被映射到所要的物理页上。这个函数是如何
工作的,工作的时候用到了什么?

在内核中有这样的变量:

MmFirstReservedMappingPte=0xc0301000
MmLastReservedMappingPte=0xc03013fc

这两个变量描述了255个pte,这些pte描述了区域:

0xc0400000-0xc04fffff (1/4 HyperSpace)

在MmFirstReservedMappingPte处是一个pte,其中的基址扮演了计数器的角色(从0到255)
(当然,pte是无效的,p位无效)。为所需地址添加pte时要依赖计数器当前的值……并且计
数器使用了下开口堆栈的原理,从ff开始。一般来说,页表中的pte用作信息上的目的并不是
唯一的情况。

03.System PTE'S
===============

在内核中有一块这样的内存——系统pte。什么是系统pte,以及内核如何使用系统pte?

*见函数 MiReserveSystemPtes(...)

系统为空闲PTE维护了某些结构体。首先为了快速满足密集请求(当内核需要pte映射某些物
理页时)系统中有个Sytem Ptes Pool。而且pool中有pte blocks(blocks表示请求是以blo
ck为单位来满足的,一个block中有一些pte,1、2、4、8和16个pte)。

系统中有以下这些表:

BYTE MmSysPteTables[16]={0,0,1,2,2,3,3,3,3,4,4,4,4,4,4,4,4};
DWORD MmSysPteIndex[5]={1,2,4,8,16};
DWORD MmFreeSysPteListBySize[5];
PPTE  MmLastSysPteListBySize[5];
DWORD MmSysPteListBySizeCount[5];
DWORD MmSysPteMinimumFree[5]={100,50,30,20,20}
PVOID MmSystemPteBase;// 0xc0200000

在pool中的空闲PTE被组织成了链表(当然,pte是位于页表中,也就是说链表结构体位于页
表中,这是真的)。链表的元素:

typedef struct _FREE_SYSTEM_PTES_BLOCK{
/*pte0*/ SYSPTE_REF NextRef;                 // 指向后面的block
/*pte1*/ DWORD FlushUnkn;                    // 在Flush时使用
/*pte2*/ DWORD ArrayOfNulls[ANY_SIZE_ARRAY]; // 空闲 PTE
     }FREE_SYSTEM_PTES_BLOCK PFREE_SYSTEM_PTES_BLOCK;

用作指向后面元素指针的PTE的地址可如此获得:VA=(NextRef>>10)+MmSystemPteBase (低
10位永远为0,相应的p位也为0)。链表最后一个元素NextRef域的值为0xfffff000 (-1) 。
相应的,链表有5个(block大小分别为1,2,4,8和16个pte)。

*见函数 MiReserveSystemPtes2(...) / MiInitializeSystemPtes

除pool外还有一个undocumented的空闲系统pte链表。

PPTE MmSystemPtesStart[2];
PPTE MmSystemPtesEnd[2];
SYSPTE_REF MmFirstFreeSystemPte[2];
DWORD MmTotalFreeSystemPtes[2];

在两个链表中有两个引用。链表的元素:

typedef struct _FREE_SYSTEM_PTES{
  SYSPTE_REF Next; // #define ONLY_ONE_PTE_FLAG 2, last = 0xfffff000
  DWORD NumOfFreePtes;
}FREE_SYSTEM_PTES PFREE_SYSTEM_PTES;

而且,1号链表原则上没有组织。0号链表(MiReleaseSystemPtes)用于释放的pte。pte有可
能进入System Ptes Pool。若在请求MiReserveSystemPtes(...)时pte的数目大于16,则同时
pte从0号链表分配。也就是说,0号链表与pool有关联,而1号则没有。

为了使工作的结果不与TLB相矛盾,系统要么使用重载cr3,要么使用命令invlpg。“高级”
函数

MiFlushPteList(PTE_LIST* PteList, BOOLEAN bFlushCounter, DWORD PteValue);

进行以下工作:

初始化PTE并调用invlpg(汇编指令)。

typedef struct PTE_LIST{
     DWORD Counter; // max equ 15
     PVOID PtePointersInTable[15];
     PVOID PteMappingAddresses[15];
     };

如果Counter大于15,则调用KeFlushCurrentTb(只是重载CR3),并且如果设置了bFlushCo
unter,则向MmFlushCounter加0x1000。

04.Page Frame Number Data Base (MmPfnDatabase)
======================================

内核将有关物理页的信息保存在pfn数据库中(MmPfnDatabase)。本质上讲,这只是个0x18
字节长的结构体块。每一个结构体对应一个物理页(顺序排列,所以元素常被称为Pfn - pa
ge frame number)。结构体的数量对应于系统中4KB页的数量(或者说是内核可见的页的数
量,需要的话可以在boot.ini中使用相应的选项来为NT内核做出这块“坏”页区)。通常,
结构体形式如下:

typedef struct _PfnDatabaseEntry
    {
    union {
    DWORD NextRef; // 0x0 如果frame在链表中,则这个就是frame的号
                   // 最后的一个为 -1
    DWORD Misc;    // 同时另外一项信息, 依赖于上下文
                   // 见伪代码 (通常 TmpPfn->0...)
                   // 通常这里有 *KTHREAD, *KPROCESS,
             // *PAGESUPPORT_BLOCK...
          };
    PPTE PtePpte;  // 0x4 指向 pte 或 ppte
    union {        // 0x8
          DWORD PrevRef;      // 前面的frame或 (-1, 第一个)
          DWORD ShareCounter; // Share 计数器
          };
    WORD Flags;      // 0xc 见下面
    WORD RefCounter; // 0xe 引用计数
    DWORD Trans;     // 0x10 ?? 见下面. 用于 pagefile
    DWORD ContFrame;//ContainingFrame; // 14
    }PfnDatabaseEntry;
/*
Flags (名字取自windbg !pfn的结果)

掩码   位     名字  值
-----  ----   ---   --------
0001   0      M     Modifyied
0002   1      R     Read In Progress
0004   2      W     WriteInProgress
0008   3      P     Shared
0070   [4:6]  Color Color (In fact Always null for x86)
0080   7      X     Parity Error
0700   [8:10] State 0- Zeroed
              /List 1- Free
                    2- StandBy
                    3- Modified
                    4- ModifiedNoWrite
                    5- BadPage
                    6- Active
                    7- Trans
0800   11     E     InPageError

Trans域的值用在frame的内容位于PageFile中的时候或是frame的内容位于与这个Page File
 PTE对应的其它映象文件中的时候。

我给出未设置P位的PTE的例子(这种PTE不由平台体系结构确定,而由OS确定)。

* 取自 @MiReleasePageFileSpace (Trans)

Page File PTE
+---------------------------------------+-+-+---------+-------+-+
|3 3 2 2 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1|1|1|0 0 0 0 0|0 0 0 0|0|
|1 0 9 8 7 6 5 4 3 2 1 0 9 8 7 6 5 4 3 2|1|0|9 8 7 6 5|4 3 2 1|0|
+---------------------------------------+-+-+---------+-------+-+
| offset                                |T|P|Protect. |page   |0|
|                                       |R|P|mask     |file   | |
|                                       |N|T|         |Num    | |
+---------------------------------------+-+-+---------+-------+-+

Transition PTE
+---------------------------------------+-+-+---------+-------+-+
|3 3 2 2 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1|1|1|0 0 0 0 0|0 0 0 0|0|
|1 0 9 8 7 6 5 4 3 2 1 0 9 8 7 6 5 4 3 2|1|0|9 8 7 6 5|4 3 2 1|0|
+---------------------------------------+-+-+---------+-------+-+
| PFN                                   |T|P|Protect. |C W O W|0|
|                                       |R|P|mask     |D T    | |
|                                       |N|T|         |       | |
+---------------------------------------+-+-+---------+-------+-+

W - write
O - owner
WT - write throuth
CD - cache disable

可能所有这些现在还不很易懂,但是看完下面就能明白了。当然,这个结构体是未公开的。
显然,结构体能够组织成链表。frame由以下结构体支持:

struct _MmPageLocationList{

PPfnListHeader ZeroedPageListhead;         //&MmZeroedPageListhead
PPfnListHeader FreePageListHead;           //&MmFreePageListHead
PPfnListHeader StandbyPageListHead;        //&MmStandbyPageListHead
PPfnListHeader ModifiedPageListHead;       //&MmModifiedPageListHead
PPfnListHeader ModifiedNoWritePageListHead;//&MmModifiedNoWritePageListHead
PPfnListHeader BadPageListHead;            //&MmBadPageListHead
}MmPageLocationList;

这其中包含了6个链表。各域的名字很好的说明了它们的用处。frame的状态与这些链表密切
关联。下面列举了frame的状态:

+---------------+----------------------------------------------------+------+
|状态           |描述                                                | 链表 |
+---------------+----------------------------------------------------+------+
|Zero           |清零的可用空闲页                                    |  0   |
|Free           |可用空闲页                                          |  1   |
|Standby        |不可用但可轻易恢复的页                              |  2   |
|Modified       |要换出的dirty页                                     |  3   |
|ModifiedNoWrite|不换出的dirty页                                     |  4   |
|Bad            |不可用的页(有错误)                                |  5   |
|Active         |活动页,至少映射一个虚拟地址                        |  -   |
+---------------+----------------------------------------------------+------+

frame可能处在6个链表中的某一个,也可能不在这些链表中(状态为Active)。如果页属于
某个进程,则这个页就被记录在Working Set中(见后面)。同时,如果frame由内存管理器
自己使用,则一般可以不考虑这些frame的位置。

每个链表的表头都是下面这个样子:

typedef struct _PfnListHeader{
     DWORD Counter; // 链表中frame的数目
     DWORD LogNum;  // 链表号.0 - zeroed, 1- Free etc...
     DWORD FirstFn; // MmPfnDatabase中的第一个frame号
     DWORD LastFn;  // --//--- 最后一个.
     }PfnListHeader PPfnListHeader;

除此之外,可以用“color”(就是cache)来寻址空闲frame(zeroed或是free)。如果看一
下附录中的伪代码就容易理解了。我给出两个结构体:

struct  {
     ColorHashItem* Zeroed; //(-1) нет
     ColorHashItem* Free;
     }MmFreePagesByColor;

typedef struct _ColorHashItem{
          DWORD FrameNum;
                PfnDatabaseEntry* Pfn;
                } ColorHashItem;

有一套函数使用color来处理frame(处理cache)。例如,MiRemovePageByColor(FrameNum,
 Color); 看一下这些函数及其参数返回值的名称和函数的反汇编代码,很容易猜到相应的内
容,所以这里就不描述了,在说一句,这些函数都是未导出的。在使用color的时候,要考虑
color掩码,最后选择color。

Windows NT符合C2安全等级,所以应该在为进程分配页的时候应将页清零。我们来看一下将
frame清零的系统进程的线程。最后,在Phase1Initialization()中所作的是调用MmZeroPag
eThread。不难猜到——线程将空闲页清零并将其移动到zeroed页的链表中。

MmZeroPageThread
{
//
//.... 没意思的东西我们略过 ;)
//
while(1)
 {
 KeWaitForSingleObject(MmZeroingPageEvent,8,0,0,0); // 等待事件
 while(!KeTryToAcquireSpinLock(MmPfnLock,&OldIrql)); // 获取 PfnDatabase
 while(MmFreePageListHead.Count){
            MiRemoveAnyPage(MmFreePageListHead.FirstFn&MmSecondaryColorMask);
               // 从空闲链表中取出页
            Va=MiMapPageToZeroInHyperSpace(MmFreePageListHead.FirstFn);
            KeLowerIrql(OldIrql);

            memset(Va,0,0x1000); // clear page

            while(!KeTryToAcquireSpinLock(MmPfnLock,&OldIrql);
            MiInsertPageInList(&MmZeroedpageListHead,FrameNum);
                         // 将已清零的页插入Zero链表
            }
  MmZeroingPageThreadActive=0; // 清标志
  KeLowerIrql(OldIrql);
  }
// 永不退出
}

// 函数只是将frame映射到定义的地址上
// 以使其可被清零
DWORD MiMapPageToZeroInHyperSpace(FrameNum)
{
 if(FrameNum<MmKseg2Frame)return ((FrameNum+0x80000)<<12); // 落入直接映射区域
                                      
 TmpPte=0xc0301404;
 TmpVa=0xc0501000;
 *TmpPte=0;
 invlpg((void*)TmpVa); // asm instruction in fact
 *TmpPte=FrameNum<<12|ValidPtePte;
 return TmpVa; // always 0xc0501000;
}

在何时MmZeroingPageEvent被激活?这发生在向空闲页链表中添加frame的时候:

MiInsertPageInList()
{
.....
if(MmFreePageListHead.Count>=MmMinimumFreePagesToZero&&
       !MmZeroingPageThreadActive)
    {
     MmZeroingPageThreadActive=1;
     KeSetEvent(&MmZeroingPageEvent,0,0);
    }
....
}

注:内核并不总是依赖这个线程,有时会遇到这样的代码,它获取一个空闲页,用过后自己
将其清零。

05.Working Set
==============
Working Set——工作集,是属于当前进程的物理页集。内存管理器使用一定的机制跟踪进程
的工作集。working set有两个限额:maximum  working set和minimum working set。这是
工作集的最大值和最小值。内存管理器以这两个值为依据来维护进程的工作集(工作集大小
不小于最小值,不大于最大值)。在定义条件的时候,工作集被裁减,这时工作集的frame落
入空闲链表。内核工作集是结构体的总和。

在进程结构体的偏移0xc8(NT4.0)有以下结构体。

typedef struct _VM{
/* C8*/   LARGE_INTEGER UpdateTime;              //0
/* D0*/   DWORD Pages;                           //8 called so, by S-Ice authors
/* D4*/   DWORD PageFaultCount                   //0c faults;
//                    in fact number of MiLocateAndReserveWsle calls
/* D8*/   DWORD PeakWorkingSetSize;              //10 all
/* DC*/   DWORD WorkingSetSize;                  //14  in
/* E0*/   DWORD  MinimumWorkingSet;              //18   pages, not in
/* E4*/   DWORD  MaximumWorkingSet;              //1c     bytes
/* E8*/   PWS_LIST WorkingSetList;               //20 data table
/* EC*/   LIST_ENTRY WorkingSetExpansion;        //24 expansion
/* F4*/   BYTE fl0; // Operation???              //2c
     BYTE fl1; // always 2???               //2d
     BYTE fl2; // reserved??? always 0      //2e
     BYTE fl3; //                           //2f
     }VM *PVM;

WinDbg !procfields的扩展命令用到VM。这里重要的是,跟踪page fault的数量(PageFaul
tCount),MaximumWorkingSet和MinimumWorkingSet,管理器以它们为基础来支持工作集。

注:实际上,PageFaultCount并非是严格的计数。这个计数在MiLocateAndReserveWsle函数
中被扩大,因为这个函数不只在page fault时被调用,在某些其它情况下也会被调用(真的
,很少见)。

下面这个结构体描述了包含工作集页的表。

typedef struct _WS_LIST{
DWORD        Quota;              //0 ??? i'm not shure....
DWORD        FirstFreeWsle;      // 4 start of indexed list of free items
DWORD        FirstDynamic;       // 8 Num of working set wsle entries in the sta
rt
                                 // FirstDynamic
DWORD        LastWsleIndex;      // c above - only empty items
DWORD        NextSlot;           // 10 in fact always == FirstDynamic
                                 // NextSlot
PWSLE        Wsle;               // 14 pointer to table with Wsle
DWORD        Reserved1           // 18 ???
DWORD        NumOfWsleItems;     // 1c Num of items in Wsle table
                       // (last initialized)
DWORD        NumOfWsleInserted;  // 20 of Wsle items inserted (WsleInsert/
                                 //                              WsleRemove)
PWSHASH_ITEM HashPtr;            // 24 pinter to hash, now we can get index of
                       //   Wsle item by address. Present only if
                                 //   NumOfWsleItems>0x180
DWORD        HashSize;           // 28 hash size
DWORD        Reserved2;          // 2c ???
}WS_LIST *PWS_LIST;

typedef struct _WSLE{ // 工作集表的元素
        DWORD PageAddress;
     }WSLE *PWSLE;

// PageAddress 本身是工作集页的虚地址
// 低12位用作页属性(虚地址总是4K的倍数)

#define WSLE_DONOTPUTINHASH 0x400 // 不放在cache中
#define WSLE_PRESENT 0x1 // 非空元素
#define WSLE_INTERNALUSE 0x2 // 被内存管理器使用的frame

// 未设置WSLE_PRESENT的空闲WSLE本身是下一个空闲WSLE的索引。这样,空闲的WSLE就组织
成了链表。最后一个空闲WSLE表示为-1。

#define EMPTY_WSLE (next_emty_wsle_index) (next_emty_wsle_index<<4)
#define LAST_EMPTY_WSLE 0xfffffff0

typedef struct _WSHASH_ITEM{
     DWORD PageAddress; //Value
     DWORD WsleIndex; //index in Wsle table
}WSHASH_ITEM *PWSHASH_ITEM;

//cache函数很简单。内部函数的伪代码:
//MiLookupWsleHashIndex(Value,WorkingSetList)
//{
//Val=value&0xfffff000;
//TmpPtr=WorkingSetList->HashPtr;
//Mod=(Val>>0xa)%(WorkingSetList->HashSize-1);
//if(*(TmpPtr+Mod*8)==Val)return Mod;
//while(*(TmpPtr+Mod*8)!=Val)){
//   Mod++;
//   if(WorkingSetList->HashSize>Mod)continue;
//   Mod=0;
//   if(fl)KeBugCheckEx(0x1a,0x41884,Val,Value,WorkingSetList);
//   fl=1;
//   }
//return Mod;
//}

我们来看一下典型的进程working set。WorkingSetList位于地址MmWorkingSetList (0xc05
02000)。这是hyper space的区域,所以在进程切换时,要更新这些虚地址,这样,每个进程
都有自己的工作集结构体。在地址MmWsle (0xc0502690)上是Wsle动态表的起始地址。表的结
尾的地址总是0x1000的倍数,也就是说表可以结束在地址0xc0503000、0xc0504000等等上(
这是为了简化对Wsle表大小的操作)。Cache(如果有)位于一个偏移上,Wsle不会向这个偏
移增长。我们来详细看一下这个表:

// WsList-0xc0502000---
// ....
// -------0xc0502030----
// pde 00 fault counter
// pde 01 fault counter
// pde 02 fault counter
//
// +-Wsle==0xc0502690---             +--Pde/pte     +-----Pfn[0]------
// |0 c0300000|403 Page Directory    |c0300c00 pde  |pProcess
// |4 c0301000|403 Hyper Space       |c0300c04 pte  |1
// |8 MmWorkingSetList(c0502000)|403 |c0301408 pte  |2
// |c MmWorkingSetList+0x1000 | 403  |.             |3
// |10 MmWorkingSetList+0x2000 | 403 |.              .
// |         ....
// |FirstDynamic*4 FrameN
// |....                             |.              .
//                                                   .
// |LastWsleIndex*4 FrameM
// +--------                         +------        +-------
// | free items
// ....
// | 0xfffffff0
// +-------------------

// Cache
// ....

这里有个有意思的地方,在表的起始部分有FirstDynamic的页,用于建立Wsle,WorkingSet
List和cache。同时这里还有页目录frame,HyperSpace和某些其它的页,这些页是内存管理
器所需要的,不能从工作集中移出(标志WSLE_INTERNALUSE)。之后,我们还能看到两种对
Pfn frame域偏移0使用的变体。对于页目录frame,这是指向进程的指针,对于通常的属于工
作集的页,这是在表内的索引。

在WorkingSetList和Wsle表的起始地址之间还有不大的0x660字节的空闲空间。关于如何分配
这些空间的信息是没有的,但是很快在WorkingSetList开始有用于用户空间(通常为低2GB)
的page fault counter,也就是说如果,譬如说,索引0x100的元素有值3,则表示从3开始(
如果不考虑可能的溢出)page fault用于范围[0x40000000-0x403fffff]的页。

工作集的限额在内核模式下可以通过导出的未公开函数来修改:

NTOSKRNL MmAdjustWorkingSetSize(
          DWORD MinimumWorkingSet OPTIONAL, // if both == -1
          DWORD MaximumWorkingSet OPTIONAL, // empty working set
          PVM Vm OPTIONAL);

为处理WorkingSet,管理器使用了许多内部函数,了解了这些函数就能明白其工作的原理。

06.向pagefile换页
========================================

frame可以是空闲的——当RefCounter等于0且位于一个链表中时。frame可以属于工作集。在
缺少空闲frame时或是在达到treshhold时,就会发生frame的换出。这方面的高层次函数是有
的。这里的任务是用伪代码来证实。

在NT中有最多16个pagefile。pagefile的创建发生于模块SMSS.EXE。这时打开文件及其句柄
向PsInitialSystemProcess进程的句柄表拷贝。我给出创建pagefile的未公开系统函数的原
型(如果不从核心调用的话就必须有创建这种文件的权限)。

NTSTATUS NTAPI NtCreatePagingFile(
     PUNICODE_STRING FileName,
     PLARGE_INTEGER MinLen, // 高位双字应为0
     PLARGE_INTEGER MaxLen, // minlen应大于1M
     DWORD Reserved // 忽略
       );

每个pagefile都有一个PAGING_FILE结构体。

typedef struct _PAGING_FILE{
       DWORD MinPagesNumber;      //0
       DWORD MaxPagesNumber;      //4
       DWORD MaxPagesForFlushing; //8 (换出页的最大值)
       DWORD FreePages;           //c(Free pages in PageFile)
       DWORD UsedPages;           //10 忙着的页
       DWORD MaxUsedPages;        //14
       DWORD CurFlushingPosition; //18 -???
       DWORD Reserved1;           //1c
       PPAGEFILE_MDL Mdl1; //       20 0x61 - empty ???
       PPAGEFILE_MDL Mdl2; //       24 0x61 - empty ???
       PRTL_BITMAP PagefileMap; //  28 0 - 空闲, 1 - 包含换出页
       PFILE_OBJECT FileObject;   //2c
       DWORD NumberOfPageFile;    //30
       UNICODE_STRING FileName;   //34
       DWORD Lock;                //3d
     }PAGING_FILE *PPAGING_FILE;

DWORD MmNumberOfActiveMdlEntries;
DWORD MmNumberOfPagingFiles;

#define MAX_NUM_OF_PAGE_FILES 16
PPAGING_FILE MmPagingFile[MAX_NUM_OF_PAGE_FILES];

在内存子系统启动时(MmInitSystem(...))会启动线程MiModifiedPageWriter,该线程进行
以下工作:初始化MiPaging和 MiMappedFileHeader,在非换出域中创建并初始化MmMappedF
ileMdl,建立优先级LOW_REALTIME_PRIORITY+1,等待KEVENT,初始化MmMappedPageWriterE
vent和MmMappedPageWriterList链表,启动MiMappedPageWriter线程,启动函数MiModified
PageWriterWorker。

在任务MiModifiedPageWriterWorker中会等待事件MmModifiedPageWriterEvent,处理链表M
mModifiedNoWritePageList和MmModifiedPageList并准备实现向映象文件或pagefile的页换
出(调用MiGatherMappedPages或是MiGatherPagefilePages)。

在MiGatherPagefilePages中使用IoAsynchronousPageWrite( )函数进行frame的换出。而且
不是一个frame,而是一簇(页数目总和为MmModifiedWriteClasterSize)。向pagefile换出
页是由PAGING_FILE结构体中的PagefileMap来跟踪的。

研究函数的伪代码在appendix.txt中。这里描述伪代码没有什么意义——都很简单。

07.page fault的处理
==============================

对于转向对pagefault的研究,我们现在有了所有必须的信息了。转换线性地址时,当线性地
址(分页机制打开)的所用的PDE/PTE的P(present)位无效或是违反了保护规则,在+i386
处理器里会产生异常14。这时,在堆栈中有错误代号,包含有以下信息:用户/内核错误位(
异常发生在ring3还是ring0?),读写错误位(试图读还是写?),页存在位。除此之外,
在CR2寄存器中存有产生异常的32位线性地址。内核中处理14号中断的是_KiTrap0E。

当要转换的页没有相应的物理页时,内存管理器执行确定好的工作来“修正”。这些是由异
常处理函数调用高层函数MmAccessFault   (Wr,Addr,P);来完成的。在对伪代码的进行分析
之前,想一下在什么样的情况下会发生page fault是很有用的。

最显然的就是访问错误,这时ring3的代码试图写入PTE/PDE中未设置U位的页或是写入了只读
的页(PTE/PDE中未设置W位)。再有,页可以被换出到页面文件中,对应于这些页的PTE中未
设置P位,但有信息指示在哪个页面文件中寻找frame,以及frame的偏移。还有一个类似的情
况——frame属于映象文件。除此之外,所转换的页可能只属于已分配的内存区(使用NtAll
ocateMemory),也可能转换的是原先没转换过的页,这中情况下,VMM分配清零过的frame(
这是C2的要求)。最后,异常还可能是由写copy on write页和转换共享内存引发。以上只列
出了主要的情况。

处理的结果通常是向当前进程的Working Set中添加相应的frame。

异常的每一种情况都相应有一个内部的结构体与之相关联,VMM就处理这些结构体。这些结构
体十分复杂,要对它们进行完整的描述的话,需要反汇编大量的函数。目前还没有大部分结
构体的完整信息,但对于理解异常处理程序来说并不要求知道这些。我来大致描述一下VAD和
PPTE的概念,研究异常处理程序的伪代码要用到。

VAD

操作虚拟地址需要用到VAD (Virtual Address Descriptor)。我们熟知的(有一个几乎与之
同名的Win32函数调用这个函数)未公开函数NtAllocateVirtualMemory(ring0下是ZwAlloc
ateVirtualMemory)操作这些结构体。

每一个VAD都描述了虚地址空间中的区域,实际上,除了区域的起止地址外还有保护信息(见
ZwAllocateVirualMemory函数的参数)。而同时还有其它一些特殊的信息(目前除了首部之
外还没有VAD的完整信息)。VAD结构体只对用户地址(低2GB)有意义,使用这些结构体VMM
可以捕获到发生异常的区域。VAD的结构是一个平衡二叉树(有内部函数负责修整此树),这
是为查找而进行的优化。在VAD中有两个指向后面元素——左右子树——的指针。树的根位于
EPROCESS结构体的VadRoot域(NT 4.0下是偏移0x170)。当然,每一个进程都有自己的VAD树
。VAD的首部形式如下:

typedef struct vad_header {
     void *StartingAddress;
     void *EndingAddress;
     struct vad *ParentLink;
     struct vad *LeftLink;
     struct vad *RightLink;
     ULONG Flags;
}VAD_HEADER, *PVAD;

PPTE

Prototype Pte是又一级的线性地址转换并用于共享内存。假设有个文件映射到了几个(3个
)进程的地址空间。PPTE表包含有PPTE,这些PPTE描述了加载到内存的文件的物理页。某些
PPTE可以有P位(其位置与含义与PTE/PDE的相同),而某些则没有,没有P位的有信息用来决
定是从页来加载frame还是从映象文件来加载文件。所有三个进程的文件都映射在不同的地址
上,对应于这些页的PTE的P位未设置,并且包含有文件页的PPTE的引用。这样,在转换映射
到文件的线性地址的时候,在一号进程中发生异常14,VMM找到PTE,得到对PPTE的引用,现
在可以直接“修正”相应的PTE,以使其指向属于文件的frame,这时必需从文件中加载fram
e。我给出未设置P位PTE的格式,在页表中其指向原型PTE。

PTE points to PPTE
+-----------------------------------------+-+---+-------------+-+
|3 3 2 2 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1|1|0 0|0 0 0 0 0 0 0|0|
|1 0 9 8 7 6 5 4 3 2 1 0 9 8 7 6 5 4 3 2 1|0|9 8|7 6 5 4 3 2 1|0|
+-----------------------------------------+-+---+-------------+-+
| Address [7:27]                          |1|Un | Address     |0|
|                                         | |use|   [0:6]     | |
|                                         | |d  |             | |
+-----------------------------------------+-+---+-------------+-+

*MmAccessFault

我们开始来研究一下MmAccessFault的伪代码。其原型:

NTSTATUS MmAccessFault (BOOL Wr,DWORD Addr, BOOL P)

参数的意义很明显:写入标志,发生异常的地址和页存在位。对于确定异常的原因,这些信
息就足够了。根据Addr是属于内核地址空间还是用户地址空间,处理程序从两个执行分支中
选择一个。第一种情况下的处理程序较为简单,跟踪ACCESS VIOLATION或是收回在Working
Set中的页(MiDispatchFault)。若是用户空间的地址情况就就更为复杂一些。首先,如果
PDE不在内存中则执行用于PDE的异常处理程序。然后,出现了一个分支。第一个分支——页
存在。这表示要么是ACCESS VIOLATION,要么就是对copy on write的处理。第二个分支——
处理清零页请求、ACCESS VIOLATION、页边界(GUARD)(堆栈增长)以及必须的对working
 set中页的回收。有趣的是,在大量发生page fault的时候,系统会增大working set的大小
。在零PTE的情况下,为确定状况,处理程序不得不使用VAD树来确定试图访问区域的属性。
这些都是MiAccessCheck的工作,这个函数返回访问的状态。

一般情况下,异常处理程序的主要奠基工作是由MiDispatchFault函数执行的。它能更精确的
确定状况并决定下一步的工作。

轮到MiDispatchFault了,它主要是基于一些更低级的函数:MiResolveTransitionFault、M
iResolveDemandZeroFault、MiResolveDemandZeroFault、MiResolveProtoPteFault和MiRes
olvePageFileFault。从这些函数的名字可以明显看出,这个函数用于确定更为具体的情况:
状态为'transition'(可能会很快回收入Working Set)的页应该是空白的frame,PTE指向P
PTE并且frame换出到相应的页面文件中。在与页面文件有关的和某些与PPTE有关的情况下,
接着可能需要从文件中读取frame,此时函数返回值为0xc0033333,表示必须从文件中读取页
。这在MiDispatchFault中是靠IoPageRead进行的。我们来更仔细的研究一下所提到的函数。
我们从MiResolveDemandZeroFault开始。

如果看一下这个函数的伪代码,则可以轻易的明白它的工作逻辑。请求zero frame并且进程
得到这个frame。这时执行函数MiRemoveZeroPage或是MiRemoveAnyPage。第一个函数从zero
页的链表中取一页。如果未能成功,则通过第二个函数选择任何一页。这样的话,该页就由
MiZeroPhysicalPage来清零。最终,在MiAddValidPageToWorkingSet中,该清零的页被添加
到工作集中(恰好,这个事实证明在分配内存时进程不能取得对未处理页的访问)。现在我
们来研究一下更为复杂的情况——页位于页面文件中。

前面的伪代码需要一个结构体。在准备从文件中读取页的时候,会填充PAGE_SUPPORT_BLOCK
结构体。之后,对所有即将参与到操作中来的PFN进行以下操作:设置read in progress标志
并在Misc域中写入PAGE_SUPPORT_BLOCK的地址(函数MiInitializeReadInProgressPfn)。最
后,函数返回magic number 0xc0033333,表示随后要在IoPageRead调用中使用此结构体(恰
巧,IoPageRead被导出了,但是未公开的。从其伪码中可以很容易地得到其原型)。

typedef struct _PAGE_SUPPORT_BLOCK{     //  size: 0x98
         DISPATCHER_HEADER DispHeader;  // 0 FastMutex
         IO_STATUS_BLOCK IoStatusBlock; // 0x10
         LARGE_INTEGER AddrInPageFile;  // 0x18 (file offset)
         DWORD RefCounter;              // 0x20 (0|1) ???
         KTHREAD Thread;                // 0x24
         PFILE_OBJECT FileObject;       // 0x28
         DWORD AddrPte;            // 0x2c
         PPFN pPfn;                // 0x30
         MDL Mdl;                       // 0x34
         DWORD MdlFrameBuffer[0x10];    // 0x50
         LIST_ENTRY PageSupportList;    // 0x90 与MmInPageSupportList有关的链表
}PAGE_SUPPORT_BLOCK *PAGE_SUPPORT_BLOCK;

struct _MmInPageSupportList{
     LIST_ENTRY PageSupportList;
     DWORD Count;
     }MmInPageSupportList;

函数MiResolvePageFileFault本身非常简单,除了填充相应的结构体并返回0xc0033333之外
什么也不干。剩下的就是执行MiDispatchFault。这很合乎情理,如果还记得复用代码的原则
的话。

还有一个不太复杂的函数MiResolveTransitionFault。对于状态为transition的frame还需要
再多说几句。从这个状态中frame可以很快地返回到进程的Working Set中。

于是,剩下了最后一种情况——PROTO PTE。这种情况的处理函数也不太复杂,而且支撑其的
基础我们已经讲过了。实际上还有一个函数与这种情况有关,这就是MiCompleteProtoPteFa
ult,从MiDispatchFault中调用。要想理解这些函数的工作就去看一下伪代码。

07. section 对象
================

NT 中的section对象就是一块内存,这块内存由一个进程独有或几个进程共享。在Win32子系
统中section就是文件映射(file mapping object)。我们来看一下section对象到底是什么

section是NT下非常常用的对象,执行系统使用section来将可执行映象加载到内存中并用其
来管理cache。section同时也用在向进程地址空间中映射文件。这时访问文件就像访问内存
。section对象,就像其它的对象一样,是由对象管理器创建的。高层次的信息告诉我们,对
象的body中包含着以下类型的信息:section的最大值,保护属性,其它属性。什么是secti
on的最大可访问值,这不说也知道。保护属性是用于section页的属性。其它section属性有
表示是文件section还是为空值(映射入页面文件)的标志,以及section是否是base的。ba
se的section以相同的虚拟地址映射入所有进程的地址空间。

为了得到此对象结构的真实信息,我反汇编了一些用于section的内存管理器函数。下面的信
息可是在别的地方见不到的。我们先来看结构体。

系统中的每一个文件都是对象(NTDDK.H中有描述)FILE_OBJECT。在这个结构体中有Sectio
nObjectPointer。NTDDK.H中同样有它的结构。

//
:
PSECTION_OBJECT_POINTERS SectionObjectPointer;
:
//

typedef struct _SECTION_OBJECT_POINTERS {
    PVOID DataSectionObject;
    PVOID SharedCacheMap;
    PVOID ImageSectionObject;
} SECTION_OBJECT_POINTERS;

在结构体中有两个指针——DataSectionObject 和 ImageSectionObject。NTDDK.H把它们写
成了PVOID,因为它们引用的是未公开的结构体。DataSectionObject用在将文件作为数据打
开的时候。ImageSectionObject——此时当作映象。这些指针的类型全都一样,且可以称之
为PCONTROL_AREA。所有下面这些结构体都是Windows 2K的,较之NT 4.0的有些变化。

typedef struct _CONTROL_AREA { // for NT 5.0, size = 0x38
                    PSEGMENT  pSegment;      //00
                    PCONTROL_AREA  Flink;         //04
                    PCONTROL_AREA  Blink;         //08
                    DWORD          SectionRef;    //0c
                    DWORD          PfnRef;           //10
                    DWORD          MappedViews;   //14
                    WORD      Subsections;   //18
                    WORD      FlushCount;    //1a
                    DWORD          UserRef;       //1c
                    DWORD          Flags;         //20
                    PFILE_OBJECT   FileObject;    //24
                    DWORD          Unknown;       //28
                    WORD      ModWriteCount; //2c
                    WORD      SystemViews;   //2e
                    DWORD PagedPoolUsage;         //30
                    DWORD NonPagedPoolUsage; //34
                    } CONTROL_AREA, *PCONTROL_AREA;

我们可以看到,CONTROL_AREA形成了一个链表,结构体中包含着统计值和标志。为了理解标
志所代表的信息,我给出它们的值(用于NT5.0

/******************** nt5.0 ******************/
#define BeingDeleted               0x1
#define BeingCreated               0x2
#define BeingPurged                0x4
#define NoModifiedWriting          0x8
#define FailAllIo                  0x10
#define Image                      0x20
#define Based                      0x40
#define File                       0x80
#define Networked                  0x100
#define NoCache                    0x200
#define PhysicalMemory             0x400
#define CopyOnWrite                0x800
#define Reserve                    0x1000
#define Commit                     0x2000
#define FloppyMedia                0x4000
#define WasPurged                  0x8000
#define UserReference              0x10000
#define GlobalMemory               0x20000
#define DeleteOnClose              0x40000
#define FilePointerNull            0x80000
#define DebugSymbolsLoaded         0x100000
#define SetMappedFileIoComplete    0x200000
#define CollidedFlush              0x400000
#define NoChange                   0x800000
#define HadUserReference           0x1000000
#define ImageMappedInSystemSpace   0x2000000

紧随CONTROL_AREA之后的是Subsection的数目Subsections。每一个Subsection都描述了关于
具体的文件映射section的信息。例如,read-only, read-write, copy-on-write等等的sec
tion。NT5.0的SUBSECTION结构体:

typedef struct _SUBSECTION { // size=0x20 nt5.0
               // +0x10 if GlobalOnlyPerSession
               PCONTROL_AREA   ControlArea; //38, 00
               DWORD           Flags;       //3c, 04
               DWORD           StartingSector;//40, 08
               DWORD           NumberOfSectors; //44, 0c
               PVOID           BasePte;       //48, 10 pointer to start pte
               DWORD           UnusedPtes;    //4c, 14
               DWORD           PtesInSubsect; //50, 18
               PSUBSECTION     pNext;         //54, 1c
               }SUBSECTION, *PSUBSECTION;

在subsection中有指向CONTROL_AREA的指针,标志,指向base Proto PTE的指针,Proto PT
E的数目。StartingSector是4K block的编号,文件中的section起始于此。在标志中还有额
外的信息:

#define SS_PROTECTION_MASK               0x1f0
#define SS_SECTOR_OFFSET_MASK            0xfff00000 // (low 12 bits)
#define SS_STARTING_SECTOR_HIGH_MASK     0x000ffc00  //  (nt5 only) (in pages)

//other 5 bit(s)

#define ReadOnly       1
#define ReadWrite      2
#define CopyOnWrite    4
#define GlobalMemory   8
#define LargePages 0x200

我们来看剩下的最后一个结构体SEGMENT,它描述了所有的映射和用于映射section的Proto
PTE。SEGMENT的内存是从paged pool中分配的。我给出SEGMENT结构体(NT 5.0)

typedef struct  _SEGMENT {
          PCONTROL_AREA ControlArea;    //00
          DWORD         BaseAddr;       //04
          DWORD         TotalPtes;      //08
          DWORD         NonExtendedPtes;//0c
          LARGE_INTEGER SizeOfsegemnt;  //10
          DWORD        ImageCommit;     //18
          DWORD        ImageInfo;       //1c
          DWORD        ImageBase;       //20
          DWORD        Commited;        //24
          PTE          PteTemplate;     //28 or 64 bits if pae enabled
          DWORD BasedAddr;         //2c
          DWORD BaseAddrPae;       //30 if PAE enabled
          DWORD ProtoPtes;         //34
          DWORD ProtoPtesPae;           //38 if PAE enabled
          }SEGMENT,*PSEGMENT;

正如我所料,结构体包含着对CONTROL_AREA的引用,指向Proto PTE的pool的指针和所有sec
tion的信息。有个东西需要解释一下。结构体的样子依赖于是否支持PAE。PAE就是Physical
 Address Extenion。从第5版开始,Windows NT包含了支持PAE的内核Ntkrnlpa.exe。总的来
讲,支持PAE就意味着在NT里可以使用的虚拟地址不是4GB而是64GB。在使用PAE时的地址转换
又多了一级——所有的虚地址空间被分为4部分。在打开PAE时PTE和PDE的大小不是4B而是8B
,这我们可以从SEGMENT结构体中看出。现在还不需要进一步详细的讲PAE,毕竟很少用到,
所以我们就此打住。

描述section的所有结构体都介绍过了,而section对象结构体本身还没有提到。从直观上可
以想到,它应该会引用到SEGMENT或是CONTROL_AREA,因为有了这两个结构体后就可以得到保
存的所有信息。通过反汇编得到的section对象的body为以下形式:

typedef struct _SECTION_OBJECT { // size 0x28
               VAD_HEADER VadHeader; // 0
               PSEGMENT pSegment;         //0x14 Segment
               LARGE_INTEGER SectionSize; //0x18
               DWORD ControlFlags;        //0x20
               DWORD PgProtection;        //0x24
               } SECTION_OBJECT, *SECTION_OBJECT;

#define PageFile      0x10000
#define MappingFile   0x8000000
#define Based         0x40
#define Unknown       0x800000 // not sure, in fact it's AllocAttrib&0x400000

我们看到,所得的结构体完全符合现有的高层信息的描述。唯一可能有疑问的就是VAD_HEAD
ER。它描述了base section在地址空间中的位置。VAD_HEADER位于顶点为_MmSectionBasedR
oot的VAD树中。我们再次体会到,要理解操作系统的工作原理,就要理解其内部的结构。为
了有一个总体上的把握,下面给出了描述section的结构体间互相联系的一个图。

SECTION_OBJECT->SEGMENT<->CONTROL_AREA->FILE_OBJECT->SECTION_OBJECT_POINTERS+
                               ^                                            |
                               +--------------------------------------------+

08.从内存管理器角度看进程的创建
====================================================

前面我们从Win32角度介绍过进程的创建,也讲过内存管理器和对象管理器的工作原理,以及
section对象结构体。现在最有意思的当然就是在进程创建中将内存管理器也考虑进来。

进程是用未公开的系统调用NtCreateProcess()创建的。下面给出其伪代码:

/*****************************************************************/
/* -- Here it is, just wrapper -- */
NtCreateProcess(
      OUT Handle,
      IN ACCESS_MASK Access,
      IN POBJECT_ATTRIBUTES ObjectAttrib,
      IN HANDLE Parent,
      IN BOOLEAN InheritHandles,
      IN HANDLE SectionHandle,
      IN HANDLE DebugPort,
      IN HANDLE ExceptionPort
      )
{
if(Parent)
        {
     ret=PspCreateProcess(Handle,
                    Access,
                    ObjectAttrib,
                    Parent,
                    InheritHandles,
                    SectionHandle,
                    DebugPort,
                    ExceptionPort);
        }
else ret=STATUS_INVALID_PARAMETER;
return ret;
}

我们看到,NtCreateProcess是对另一个内部函数PspCreateProcess的封装。NtCreateProce
ss进行的唯一工作就是检查Parent(父进程句柄)。但是接下来我们看到,对于NT来说这并
没有什么意义,因为总的来说,进程的继承性本身没有特别的意义。现在我们来看PspCreat
eProcess()。

PspCreateProcess(
      OUT PHANDLE Handle,
      IN ACCESS_MASK Access,
      IN POBJECT_ATTRIBUTES ObjectAttrib,
      IN HANDLE Parent,
      IN BOOLEAN InheritHandles,
      IN HANDLE SectionHandle,
      IN HANDLE DebugPort,
      IN HANDLE ExceptionPort
      );

我很快注意到,函数中的Parent参数可以接受值0,这就表明在NtCreateProcess中检验此参
数是为了限制用户模式。函数的参数中有对section、debug port和exception port、父进程
的引用。通过调用ObReferenceObjectByHandle,可以得到指向这些对象的指针。实际上父进
程句柄通常传递的是-1,这表示是当前进程。如果Parent等于0,则进程的affinity就不从父
进程处取得,而是从系统变量中取得。

if(Parent)
      { //Get pointer to father's body
        ObReferenceObjectByHandle(Parent,0x80,PsProcessType,PrevMode,&pFather,0)
;
        AffinityMask=pFather->Affinity; // on witch processors will be executed
        Prior=8;
      }
else {
      pFather=0;
      AffinityMask=KeActiveProcessors;
      Prior=8;
     }

优先级总是为8。随后,创建进程对象。NT4.0下其大小为504字节。

// size of process body - 504 bytes
// creating process object... (type object PsProcessType)
ObCreateObject(PrevMode,PsProcessType,ObjectAttrib,PrevMode,0,504,&pProcess);
// clear body
memset(pProcess,0,504);

初始化某些域和Quota Block(见对象管理器的相关介绍)。

pProcess->CreateProcessReported=0;
pProcess->DebugPort=pDebugPort;
pProcess->ExceptPort=pExceptPort;

// Inherit Quota Block, if pFather==NULL, PspDefaultQuotaBlock
PspInheritQuota(pProcess,pFather);

if(pFather){
           pProcess->DefaultHardErrorMode=pFather->DefaultHardErrorMode;
           pProcess->InheritedFromUniqueProcessId=pFather->UniqueProcessId;
           }
else {
       pProcess->InheritedFromUniqueProcessId=0;
       pProcess->DefaultHardErrorMode=1;
     }

之后,调用MmCreateProcessAddressSpace,创建地址上下文。参数是函数得到的指向进程的
指针、工作集的大小和指向结果结构体的指针。这个结构体形式如下:

struct PROCESS_ADDRESS_SPACE_RESULT{
 dword Dt; // dict. table phys. addr.
 dword HypSpace; // hyp space page phys. addr.
 dword WorkingSet; // working set page phys. addr.
}CASResult;

MmCreateProcessAddressSpace(PsMinimumWorkingSet,pProcess,&CASResult);

我们看到,函数向我们返回的是页表的物理地

抱歉!评论已关闭.