现在的位置: 首页 > 综合 > 正文

Opencv2.4.9源码分析——MSER

2018年04月22日 ⁄ 综合 ⁄ 共 13950字 ⁄ 字号 评论关闭

最大稳定极值区域(MSER-Maximally Stable Extremal Regions)可以用于图像的斑点区域检测。该算法最早是由Matas等人于2002年提出,它是基于分水岭的概念。

MSER的基本原理是对一幅灰度图像(灰度值为0~255)取阈值进行二值化处理,阈值从0到255依次递增。阈值的递增类似于分水岭算法中的水面的上升,随着水面的上升,有一些较矮的丘陵会被淹没,如果从天空往下看,则大地分为陆地和水域两个部分,这类似于二值图像。在得到的所有二值图像中,图像中的某些连通区域变化很小,甚至没有变化,则该区域就被称为最大稳定极值区域。这类似于当水面持续上升的时候,有些被水淹没的地方的面积没有变化。它的数学定义为:

q(i)=|Qi+-Qi-|/|Qi|            (1)

其中,Qi表示阈值为i时的某一连通区域,△为灰度阈值的微小变化量,q(i)为阈值是i时的区域Qi的变化率。当q(i)为局部极小值时,则Qi为最大稳定极值区域。

需要说明的是,上述做法只能检测出灰度图像的黑色区域,不能检测出白色区域,因此还需要对原图进行反转,然后再进行阈值从0~255的二值化处理过程。这两种操作又分别称为MSER+和MSER-。

MSER具有以下特点:

1、对图像灰度具有仿射变换的不变性;

2、稳定性:具有相同阈值范围内所支持的区域才会被选择;

3、无需任何平滑处理就可以实现多尺度检测,即小的和大的结构都可以被检测到。

MSER的原理比较简单,但要更快更好的实现它,是需要一定的算法、数据结构和编程技巧的。David Nister等人于2008年提出了Linear Time Maximally Stable Extremal Regions算法,该算法要比原著提出的算法快,opencv就是利用该算法实现MSER的。但这里要说明一点的是,opencv不是利用公式1计算MSER的,而是利用更易于实现的改进方法:

q(i)=|Qi-Qi-|/|Qi-|            (2)

David Nister提出的算法是基于改进的分水岭算法,即当往一个固定的地方注水的时候,只有当该地方的沟壑被水填满以后,水才会向其四周溢出,随着注水量的不断增加,各个沟壑也会逐渐被水淹没,但各个沟壑的水面不是同时上升的,它是根据水漫过地方的先后顺序,一个沟壑一个沟壑地填满水,只有当相邻两个沟壑被水连通在一起以后,水面对于这两个沟壑来说才是同时上升的。该算法的具体步骤如下:

1、初始化栈和堆,栈用于存储组块(组块就是区域,就相当于水面,水漫过的地方就会出现水面,水面的高度就是图像的灰度值,因此用灰度值来表示组块的值),堆用于存储组块的边界像素,相当于水域的岸边,岸边要高于水面的,因此边界像素的灰度值一定不小于它所包围的区域(即组块)的灰度值。首先向栈内放入一个虚假的组块,当该组块被弹出时意味着程序的结束;

2、把图像中的任意一个像素(一般选取图像的左上角像素)作为源像素,标注该像素为已访问过,并且把该像素的灰度值作为当前值。这一步相当于往源像素这一地点注水;

3、向栈内放入一个空组块,该组块的值是当前值;

4、按照顺序搜索当前值的4-领域内剩余的边缘,对于每一个邻域,检查它是否已经被访问过,如果没有,则标注它为已访问过并检索它的灰度值,如果灰度值不小于当前值,则把它放入用于存放边界像素的堆中。另一方面,如果领域灰度值小于当前值,则把当前值放入堆中,而把领域值作为当前值,并回到步骤3;

5、累计栈顶组块的像素个数,即计算区域面积,这是通过循环累计得到的,这一步相当于水面的饱和;

6、弹出堆中的边界像素。如果堆是空的,则程序结束;如果弹出的边界像素的灰度值等于当前值,则回到步骤4;

7、从堆中得到的像素值会大于当前值,因此我们需要处理栈中所有的组块,直到栈中的组块的灰度值大于当前边界像素灰度值为止。然后回到步骤4。

至于如何处理组块,则需要进入处理栈子模块中,传入该子模块的值为步骤7中从堆中提取得到的边界像素灰度值。子模块的具体步骤为:

1)、处理栈顶的组块,即根据公式2计算最大稳定区域,判断其是否为极值区域;

2)、如果边界像素灰度值小于距栈顶第二个组块的灰度值,那么设栈顶组块的灰度值为边界像素灰度值,并退出该子模块。之所以会出现这种情况,是因为在栈顶组块和第二个组块之间还有组块没有被检测处理,因此我们需要改变栈顶组块的灰度值为边界像素灰度值(相当于这两层的组块进行了合并),并回到主程序,再次搜索组块;

3)、弹出栈顶组块,并与目前栈顶组块合并;

4)、如果边界像素灰度值大于栈顶组块的灰度值,则回到步骤1。

在opencv2.4.9中,MSER算法是用类的方法给出的:

class MserFeatureDetector : public FeatureDetector
{
public:
MserFeatureDetector( CvMSERParams params=cvMSERParams() );
MserFeatureDetector( int delta, int minArea, int maxArea,
double maxVariation, double minDiversity,
int maxEvolution, double areaThreshold,
double minMargin, int edgeBlurSize );
virtual void read( const FileNode& fn );
virtual void write( FileStorage& fs ) const;
protected:
...
};

而具体的MSER类为:

class MSER : public CvMSERParams
{
public:
// default constructor
//缺省的构造函数
MSER();
// constructor that initializes all the algorithm parameters
//带有所有算法参数的构造函数
MSER( int _delta, int _min_area, int _max_area,
float _max_variation, float _min_diversity,
int _max_evolution, double _area_threshold,
double _min_margin, int _edge_blur_size );
// runs the extractor on the specified image; returns the MSERs,
// each encoded as a contour (vector<Point>, see findContours)
// the optional mask marks the area where MSERs are searched for
void operator()( const Mat& image, vector<vector<Point> >& msers, const Mat& mask ) const;
};
MSER算法所需要的参数较多:
delta为灰度值的变化量,即公式1和2中的△;
_min_area和_max_area为检测到的组块面积的范围;
_max_variation为最大的变化率,即如果公式1和2中的q(i)小于该值,则被认为是最大稳定极值区域;
_min_diversity为稳定区域的最小变换量。
其他的参数用于对彩色图像的MSER检测,这里不做介绍。
MSER类通过重载( )运算符,得到了最大稳定极值区域的点集msers,其中image为输入图像,mask为掩码矩阵。
下面我们就对MSER类的源码进行分析:
void MSER::operator()( const Mat& image, vector<vector<Point> >& dstcontours, const Mat& mask ) const
{
    CvMat _image = image, _mask, *pmask = 0;
    if( mask.data )
        pmask = &(_mask = mask);
    MemStorage storage(cvCreateMemStorage(0));
    Seq<CvSeq*> contours;
    //调用extractMSER函数,得到MSER的区域点集序列contours.seq
    //MSERParams为MSER所需要的参数
    extractMSER( &_image, pmask, &contours.seq, storage,
                 MSERParams(delta, minArea, maxArea, maxVariation, minDiversity,
                            maxEvolution, areaThreshold, minMargin, edgeBlurSize));
    SeqIterator<CvSeq*> it = contours.begin();
    size_t i, ncontours = contours.size();
    dstcontours.resize(ncontours);
    //复制点集序列
    for( i = 0; i < ncontours; i++, ++it )
        Seq<Point>(*it).copyTo(dstcontours[i]);
}

extractMSER函数首先定义了一些变量,并进行参数的判断。然后根据输入图像的类型分别调用不同的函数:

static void
extractMSER( CvArr* _img,
           CvArr* _mask,
           CvSeq** _contours,
           CvMemStorage* storage,
           MSERParams params )
{
    CvMat srchdr, *src = cvGetMat( _img, &srchdr );
    CvMat maskhdr, *mask = _mask ? cvGetMat( _mask, &maskhdr ) : 0;
    CvSeq* contours = 0;

    CV_Assert(src != 0);
    CV_Assert(CV_MAT_TYPE(src->type) == CV_8UC1 || CV_MAT_TYPE(src->type) == CV_8UC3);
    CV_Assert(mask == 0 || (CV_ARE_SIZES_EQ(src, mask) && CV_MAT_TYPE(mask->type) == CV_8UC1));
    CV_Assert(storage != 0);

    contours = *_contours = cvCreateSeq( 0, sizeof(CvSeq), sizeof(CvSeq*), storage );

    // choose different method for different image type
    // for grey image, it is: Linear Time Maximally Stable Extremal Regions
    // for color image, it is: Maximally Stable Colour Regions for Recognition and Matching
    switch ( CV_MAT_TYPE(src->type) )
    {
        case CV_8UC1:    //处理灰度图像
            extractMSER_8UC1( src, mask, contours, storage, params );
            break;
        case CV_8UC3:    //处理彩色图像
            extractMSER_8UC3( src, mask, contours, storage, params );
            break;
    }
}

灰度图像的MSER处理方法就是应用本文介绍的方法:

static void extractMSER_8UC1( CvMat* src,
             CvMat* mask,
             CvSeq* contours,
             CvMemStorage* storage,
             MSERParams params )
{
    //为了加快运算速度,把原图的宽扩展成高度复合数,即2^N的形式
    //step为扩展后的宽,初始值为8
    int step = 8;
    //stepgap为N,初始值为3,即8=2^3
    int stepgap = 3;
    //通过step向左移位的方式扩展原图的宽
    while ( step < src->step+2 )
    {
        step <<= 1;
        stepgap++;
    }
    int stepmask = step-1;

    // to speedup the process, make the width to be 2^N
    //创建扩展后的图像矩阵,宽为2^N,高为原图高+2
    CvMat* img = cvCreateMat( src->rows+2, step, CV_32SC1 );
    //定义第二行地址
    int* ioptr = img->data.i+step+1;
    int* imgptr;

    // pre-allocate boundary heap
    //步骤1,初始化堆和栈
    //定义堆,用于存储组块的边界像素
    int** heap = (int**)cvAlloc( (src->rows*src->cols+256)*sizeof(heap[0]) );
    int** heap_start[256];
    //heap_start为三指针变量,heap_start为边界像素的灰度值,因此它数量为256个;*heap_start表示边界像素中该灰度值的数量;**heap_start表示边界像素中该灰度值中第*heap_start个所对应的像素地址指针。
    heap_start[0] = heap;

    // pre-allocate linked point and grow history
    //pts表示组块内像素链表,即像素间相互链接
    LinkedPoint* pts = (LinkedPoint*)cvAlloc( src->rows*src->cols*sizeof(pts[0]) );
    //history表示每个组块生长的状况,即随着阈值的增加,组块的大小是在不断扩大的
    MSERGrowHistory* history = (MSERGrowHistory*)cvAlloc( src->rows*src->cols*sizeof(history[0]) );
    //comp表示图像内连通的组块(即区域),原则上每一个灰度值就会有一个组块,但之所以组块的个数是257个,是因为有一个组块是虚假组块,用于表示程序的结束。用栈的形式来管理各个组块
    MSERConnectedComp comp[257];

    // darker to brighter (MSER-)
    //MSER-
    //先对原图进行预处理
    imgptr = preprocessMSER_8UC1( img, heap_start, src, mask );
    //执行MSER操作
    extractMSER_8UC1_Pass( ioptr, imgptr, heap_start, pts, history, comp, step, stepmask, stepgap, params, -1, contours, storage );
    // brighter to darker (MSER+)
    //MSER+
    imgptr = preprocessMSER_8UC1( img, heap_start, src, mask );
    extractMSER_8UC1_Pass( ioptr, imgptr, heap_start, pts, history, comp, step, stepmask, stepgap, params, 1, contours, storage );

    // clean up
    //清理内存
    cvFree( &history );
    cvFree( &heap );
    cvFree( &pts );
    cvReleaseMat( &img );
}

preprocessMSER_8UC1函数为预处理的过程,主要就是对宽度扩展以后的图像矩阵进行赋值,每一位都赋予不同的含义:

// to preprocess src image to followingformat

// 32-bit image

// > 0 is available, < 0 is visited

// 17~19 bits is the direction

// 8~11 bits is the bucket it falls to (forBitScanForward)

// 0~8 bits is the color

/*定义图像矩阵的数据格式为有符号32位整型,最高一位表示是否被访问过,0表示没有被访问过,1表示被访问过(因为是有符号数,所以最高一位是1也就是负数);16~18位(这里源码注解有误)表示4邻域的方向;0~7位表示该像素的灰度值*/

//img代表图像矩阵,MSER处理的是该矩阵

//src为输入原图

//heap_cur为边界像素堆

//mask为掩码

static int* preprocessMSER_8UC1( CvMat* img,
            int*** heap_cur,
            CvMat* src,
            CvMat* mask )
{
    int srccpt = src->step-src->cols;
    //由于图像矩阵的宽经过了2^N处理,所以它的宽比原图的宽要长,cpt_1代表两个宽度的差值
    int cpt_1 = img->cols-src->cols-1;
    //图像矩阵的地址指针
    int* imgptr = img->data.i;
    //定义真实的图像起始地址
    int* startptr;

    //定义并初始化灰度值数组
    int level_size[256];
    for ( int i = 0; i < 256; i++ )
        level_size[i] = 0;
    //为图像矩阵的第一行赋值
    for ( int i = 0; i < src->cols+2; i++ )
    {
        *imgptr = -1;
        imgptr++;
    }
    //地址指针指向图像矩阵的第二行
    imgptr += cpt_1-1;
    //原图首地址指针
    uchar* srcptr = src->data.ptr;
    if ( mask )    //如果定义了掩码矩阵
    {
        startptr = 0;
        //掩码矩阵首地址指针
        uchar* maskptr = mask->data.ptr;
        //遍历整个原图
        for ( int i = 0; i < src->rows; i++ )
        {
            *imgptr = -1;
            imgptr++;
            for ( int j = 0; j < src->cols; j++ )
            {
                if ( *maskptr )
                {
                    if ( !startptr )
                        startptr = imgptr;    //赋值
                    *srcptr = 0xff-*srcptr;    //反转图像的灰度值
                    level_size[*srcptr]++;    //为灰度值计数
                    //为图像矩阵赋值,它的低8位是原图灰度值,8~10位是灰度值的高3位
                    *imgptr = ((*srcptr>>5)<<8)|(*srcptr);
                } else {    //掩码覆盖的像素值为-1
                    *imgptr = -1;
                }
                //地址加1
                imgptr++;
                srcptr++;
                maskptr++;
            }
            //跳过图像矩阵比原图多出的部分
            *imgptr = -1;
            imgptr += cpt_1;
            srcptr += srccpt;
            maskptr += srccpt;
        }
    } else {    //没有定义掩码
        startptr = imgptr+img->cols+1;    //赋值
        //遍历整幅图像,为图像矩阵赋值
        for ( int i = 0; i < src->rows; i++ )
        {
            *imgptr = -1;
            imgptr++;
            for ( int j = 0; j < src->cols; j++ )
            {
                *srcptr = 0xff-*srcptr;
                level_size[*srcptr]++;
                *imgptr = ((*srcptr>>5)<<8)|(*srcptr);
                imgptr++;
                srcptr++;
            }
            *imgptr = -1;
            imgptr += cpt_1;
            srcptr += srccpt;
        }
    }
    //为图像矩阵的最后一行赋值
    for ( int i = 0; i < src->cols+2; i++ )
    {
        *imgptr = -1;
        imgptr++;
    }
    //定义边界像素堆的大小
    //heap_cur[]对应灰度值,heap_cur[][]对应该灰度值的个数
    //根据灰度值的个数定义heap_cur的长度
    heap_cur[0][0] = 0;
    for ( int i = 1; i < 256; i++ )
    {
        heap_cur[i] = heap_cur[i-1]+level_size[i-1]+1;
        heap_cur[i][0] = 0;
    }
    //返回在图像矩阵中第一个真正的像素点的地址
    return startptr;
}

extractMSER_8UC1_Pass函数执行MSER算法,MSER-和MSER+都执行该函数,但可以通过参数color来区分。

static void extractMSER_8UC1_Pass( int* ioptr,
              int* imgptr,
              int*** heap_cur,
              LinkedPoint* ptsptr,
              MSERGrowHistory* histptr,
              MSERConnectedComp* comptr,
              int step,
              int stepmask,
              int stepgap,
              MSERParams params,
              int color,
              CvSeq* contours,
              CvMemStorage* storage )
{
    //设置第一个组块的灰度值为256,该灰度值是真实图像中不存在的灰度值,以区分真实图像的组块,从而判断程序是否结束
    comptr->grey_level = 256;
    //步骤2和步骤3
    //指向第二个组块
    comptr++;
    //设置第二个组块为输入图像第一个像素(左上角)的灰度值
    comptr->grey_level = (*imgptr)&0xff;
    //初始化该组块
    initMSERComp( comptr );
    //在最高位标注该像素为已被访问过,即该值小于0
    *imgptr |= 0x80000000;
    //得到该像素所对应的堆,即指向它所对应的灰度值
    heap_cur += (*imgptr)&0xff;
    //定义方向,即偏移量,因为是4邻域,所以该数组分别对应右、下、左、上
    int dir[] = { 1, step, -1, -step };
#ifdef __INTRIN_ENABLED__
    unsigned long heapbit[] = { 0, 0, 0, 0, 0, 0, 0, 0 };
    unsigned long* bit_cur = heapbit+(((*imgptr)&0x700)>>8);
#endif
    //死循环,退出该死循环的条件有两个:一是到达组块的栈底;二是边界像素堆中没有任何值。达到栈底也就意味着堆中没有值,在此函数中两者是一致的。
    for ( ; ; )
    {
        // take tour of all the 4 directions
        //步骤4
        //在4邻域内进行搜索
        while ( ((*imgptr)&0x70000) < 0x40000 )
        {
            // get the neighbor
            /* ((*imgptr)&0x70000)>>16得到第16位至第18位数据,该数据对应的4邻域的方向,再通过dir数组得到4邻域的偏移量,因此imgptr_nbr为当前像素4邻域中某一个方向上邻域的地址指针 */
            int* imgptr_nbr = imgptr+dir[((*imgptr)&0x70000)>>16];
            //检查邻域像素是否被访问过,如果被访问过,则会在第一位置1,因此该值会小于0,否则第一位为0,该值大于0
            if ( *imgptr_nbr >= 0 ) // if the neighbor is not visited yet
            {
                //标注该像素已被访问过,即把第一位置1
                *imgptr_nbr |= 0x80000000; // mark it as visited
                //比较当前像素与邻域像素灰度值
                if ( ((*imgptr_nbr)&0xff) < ((*imgptr)&0xff) )
                {
                    //如果邻域值小于当前值,把当前值放入堆中
                    // when the value of neighbor smaller than current
                    // push current to boundary heap and make the neighbor to be the current one
                    // create an empty comp
                    //堆中该像素灰度值的数量加1,即对该灰度值像素个数计数
                    (*heap_cur)++;
                    //把当前值的地址放入堆中
                    **heap_cur = imgptr;
                    //重新标注当前值的方向位,以备下一次访问该值时搜索下一个邻域
                    *imgptr += 0x10000;
                    //定位邻域值所对应的堆的位置
                    //当前heap_cur所指向的灰度值为while循环搜索中的最小灰度值,即水溢过的最低点
                    heap_cur += ((*imgptr_nbr)&0xff)-((*imgptr)&0xff);
#ifdef __INTRIN_ENABLED__
                    _bitset( bit_cur, (*imgptr)&0x1f );
                    bit_cur += (((*imgptr_nbr)&0x700)-((*imgptr)&0x700))>>8;
#endif
                    imgptr = imgptr_nbr;    //邻域值换为当前值
                    //步骤3
                    comptr++;    //创建一个组块
                    initMSERComp( comptr );    //初始化该组块
                    comptr->grey_level = (*imgptr)&0xff;    //为该组块的灰度值赋值
                    //当某个邻域值小于当前值,则不对当前值再做任何操作,继续下次循环,在下次循环中,处理的则是该邻域值,即再次执行步骤4
                    continue;
                } else {
                    //如果邻域值大于当前值,把邻域值放入堆中
                    // otherwise, push the neighbor to boundary heap
                    //找到该邻域值在堆中的灰度值位置,并对其计数,即对该灰度值像素个数计数 
                    heap_cur[((*imgptr_nbr)&0xff)-((*imgptr)&0xff)]++;
                    //把该邻域像素地址放入堆中
                    *heap_cur[((*imgptr_nbr)&0xff)-((*imgptr)&0xff)] = imgptr_nbr;
#ifdef __INTRIN_ENABLED__
                    _bitset( bit_cur+((((*imgptr_nbr)&0x700)-((*imgptr)&0x700))>>8), (*imgptr_nbr)&0x1f );
#endif
                }
            }
            *imgptr += 0x10000;    //重新标注当前值的领域方向
        }
        //imsk表示结束while循环后所得到的最后像素地址与图像首地址的相对距离
        int imsk = (int)(imgptr-ioptr);
        //得到结束while循环后的最后像素的坐标位置
        //从这里可以看出图像的宽采样2^N的好处,即imsk>>stepgap
        ptsptr->pt = cvPoint( imsk&stepmask, imsk>>stepgap );
        // get the current location
        //步骤5
        //对栈顶的组块的像素个数累加,即计算组块的面积大小,并链接组块内的像素点
        //结束while循环后,栈顶组块的灰度值就是该次循环后得到的最小灰度值,也就是该组块为极低点,就相当于水已经流到了最低的位置
        accumulateMSERComp( comptr, ptsptr );
        //指向下一个像素点链表位置
        ptsptr++;
        // get the next pixel from boundary heap
        //步骤6
        /*结束while循环后,如果**heap_cur有值的话,heap_cur指向的应该是while循环中得到的灰度值最小值,也就是在组块的边界像素中,有与组块相同的灰度值,因此要把该值作为当前值继续while循环,也就是相当于组块面积的扩展*/
        if ( **heap_cur )    //有值
        {
            imgptr = **heap_cur;    //把该像素点作为当前值
            (*heap_cur)--;    //像素的个数要相应的减1
#ifdef __INTRIN_ENABLED__
            if ( !**heap_cur )
                _bitreset( bit_cur, (*imgptr)&0x1f );
#endif
        //步骤7
        //已经找到了最小灰度值的组块,并且边界像素堆中的灰度值都比组块的灰度值大,则这时需要组块,即计算最大稳定极值区域
        } else {
#ifdef __INTRIN_ENABLED__
            bool found_pixel = 0;
            unsigned long pixel_val;
            for ( int i = ((*imgptr)&0x700)>>8; i < 8; i++ )
            {
                if ( _BitScanForward( &pixel_val, *bit_cur ) )
                {
                    found_pixel = 1;
                    pixel_val += i<<5;
                    heap_cur += pixel_val-((*imgptr)&0xff);
                    break;
                }
                bit_cur++;
            }
            if ( found_pixel )
#else
            heap_cur++;    //指向高一级的灰度值
            unsigned long pixel_val = 0;
            //在边界像素堆中,找到边界像素中的最小灰度值
            for ( unsigned long i = ((*imgptr)&0xff)+1; i < 256; i++ )
            {
                if ( **heap_cur )
                {
                    pixel_val = i;    //灰度值
                    break;
                }
                //定位在堆中所对应的灰度值,与pixel_val是相等的
                heap_cur++; 
            }
            if ( pixel_val )    //如果找到了像素值
#endif
            {
                imgptr = **heap_cur;    //从堆中提取出该像素
                (*heap_cur)--;    //对应的像素个数减1
#ifdef __INTRIN_ENABLED__
                if ( !**heap_cur )
                    _bitreset( bit_cur, pixel_val&0x1f );
#endif
                //进入处理栈子模块
                if ( pixel_val < comptr[-1].grey_level )
                //如果从堆中提取出的最小灰度值小于距栈顶第二个组块的灰度值,则说明栈顶组块和第二个组块之间仍然有没有处理过的组块,因此在计算完MSER值后还要继续返回步骤4搜索该组块
                {
                    // check the stablity and push a new history, increase the grey level
                    //利用公式2计算栈顶组块的q(i)值
                    if ( MSERStableCheck( comptr, params ) )    //是MSER
                    {
                        //得到组块内的像素点
                        CvContour* contour = MSERToContour( comptr, storage );
                        contour->color = color;    //标注是MSER-还是MSER+
                        //把组块像素点放入序列中
                        cvSeqPush( contours, &contour ); 
                    }
                    MSERNewHistory( comptr, histptr );
                    //改变栈顶组块的灰度值,这样就可以和上一层的组块进行合并
                    comptr[0].grey_level = pixel_val;
                    histptr++;
                } else {
                    //从堆中提取出的最小灰度值大于等于距栈顶第二个组块的灰度值
                    // keep merging top two comp in stack until the grey level >= pixel_val
                    //死循环,用于处理灰度值相同并且相连的组块之间的合并
                    for ( ; ; )
                    {
                        //指向距栈顶第二个组块
                        comptr--;
                        //合并前两个组块,并把合并后的组块作为栈顶组块
                        MSERMergeComp( comptr+1, comptr, comptr, histptr );
                        histptr++;
                        /*如果pixel_val = comptr[0].grey_level,说明在边界上还有属于该组块的像素;如果pixel_val < comptr[0].grey_level,说明还有比栈顶组块灰度值更小的组块没有搜索到。这两种情况都需要回到步骤4中继续搜索组块*/
                        if ( pixel_val <= comptr[0].grey_level )
                            break;
                        //合并栈内前两个组块,直到pixel_val < comptr[-1].grey_level为止
                        if ( pixel_val < comptr[-1].grey_level )
                        {
                            // check the stablity here otherwise it wouldn't be an ER
                            if ( MSERStableCheck( comptr, params ) )
                            {
                                CvContour* contour = MSERToContour( comptr, storage );
                                contour->color = color;
                                cvSeqPush( contours, &contour );
                            }
                            MSERNewHistory( comptr, histptr );
                            comptr[0].grey_level = pixel_val;
                            histptr++;
                            break;
                        }
                    }
                }
            } else
                //边界像素堆中没有任何像素,则退出死循环,该函数返回。
                break;
        }
    }
}

MSER就分析到这里,至于其中用到的一些子函数就不再分析。这里还要说明一点的是,MSER+和MSER-使用的都是同一个函数,两者的区别是一个组块面积增加,另一个减少。说实话,该部分的内容数据结构较为复杂,有一些内容我理解得也不透彻,比如结构MSERGrowHistory真正的含义还比较模糊。

下面就给出最大稳定极值区域检测的应用实例:

#include "opencv2/core/core.hpp"
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include <opencv2/features2d/features2d.hpp>
#include <iostream>
using namespace cv;
using namespace std;

int main(int argc, char *argv[])
{
    Mat src,gray;
	src = imread("lenna.bmp");
	cvtColor( src, gray, CV_BGR2GRAY );
    //创建MSER类
    MSER ms;
    //用于组块区域的像素点集
    vector<vector<Point>> regions;
    ms(gray, regions, Mat());
    //在灰度图像中用椭圆形绘制组块
    for (int i = 0; i < regions.size(); i++)
    {
        ellipse(gray, fitEllipse(regions[i]), Scalar(255));
    }
    imshow("mser", gray);
    waitKey(0);
    return 0;
}

结果如下图所示。本文介绍的方法只适用于灰度图像,所以如果输入的是彩色图像,要把它转换为灰度图像。另外在创建MSER类的时候,我们使用的是缺省构造函数,因此MSER算法所需的参数是系统默认的。所以我们检测的结果与David Nister等人在原著中的检测结果略有不同。

抱歉!评论已关闭.