现在的位置: 首页 > 综合 > 正文

摄像头驱动程序的移植前期准备和基本框架

2013年09月03日 ⁄ 综合 ⁄ 共 8869字 ⁄ 字号 评论关闭

 

视频监控:

1,在UBUNTU下安装SDL库

2,运行,解读源程序

3, 两台pc机之间的视频监控

4,开发板上的usb视频驱动的移植

5,开发板和pc机之间的监控

 

SDL库:简易直控媒体层得缩写,用于直接控制底层的多媒体硬件的接口,framebuffer接口,支持       windows和linux,支持很多语言

 

SDL的安装:SDL-1.2.14.tar拷到linux中,解压,进入,执行.config文件(配置)生成makefile文件       ,make

 

1)v4l的数据结构 */

 

/*   在video4linux API中定义了如下数据结构,详细的数据结构定义可以参考v4l API的文档,这里就编程中经常使用的数据结构作出说明。 */

 

/*   首先我们定义一个描述设备的数据结构,它包含了v4l中定义的所有数据结构: */

typedef struct _v4ldevice

{

     int fd;//设备号

     struct video_capability capability;

     struct video_channel channel[10];

     struct video_picture picture;

     struct video_clip clip;

     struct video_window window;

     struct video_capture capture;

     struct video_buffer buffer;

     struct video_mmap mmap;

     struct video_mbuf mbuf;

     struct video_unit unit;

     unsigned char *map;//mmap方式获取数据时,数据的首地址

     pthread_mutex_t mutex;

     int frame;

     int framestat[2];

     int overlay;

}v4ldevice;

 

 

 

/*   下面解释上面这个数据结构中包含的数据结构,这些结构的定义都在中。 */

/* * struct video_capability */

/* name[32] Canonical name for this interface */

/* type Type of interface */

/* channels Number of radio/tv channels if appropriate */

/* audios Number of audio devices if appropriate */

/* maxwidth Maximum capture width in pixels */

/* maxheight Maximum capture height in pixels */

/* minwidth Minimum capture width in pixels */

/* minheight Minimum capture height in pixels */

 

 

 

/*   在程序中,通过ioctl函数的VIDIOCGCAP控制命令读写设备通道已获取这个结构,有关ioctl的使用,比较复杂,这里就不说了。下面列出获取这一数据结构的代码: */

int v4lgetcapability(v4ldevice *vd)

{

     if(ioctl(vd->fd, VIDIOCGCAP, &(vd->capability)) < 0) {

          v4lperror("v4lopen:VIDIOCGCAP");

          return -1;

     }

     return 0;

}

/* * struct video_picture */

/* brightness Picture brightness */

/* hue Picture hue (colour only) */

/* colour Picture colour (colour only) */

/* contrast Picture contrast */

/* whiteness The whiteness (greyscale only) */

/* depth The capture depth (may need to match the frame buffer depth) */

/* palette Reports the palette that should be used for this image */

/*   这个数据结构主要定义了图像的属性,诸如亮度,对比度,等等。这一结构的获取通过ioctl发出VIDIOCGPICT控制命令获取。 */

 

/* * struct video_mbuf */

/* size The number of bytes to map */

/* frames The number of frames */

/* offsets The offset of each frame */

 

/*   这个数据结构在用mmap方式获取数据时很重要: */

 

/*   size表示图像的大小,如果是640*480的彩色图像,size=640*480*3 */

 

/*        frames表示帧数 */

 

/*        offsets表示每一帧在内存中的偏移地址,通过这个值可以得到数据在图像中的地址。 */

 

 

 

/*        得到这个结构的数据可以用ioctl的VIDIOCGMBUF命令。源码如下: */

int v4lgetmbuf(v4ldevice *vd)

{

     if(ioctl(vd->fd, VIDIOCGMBUF, &(vd->mbuf))<0) {

          v4lperror("v4lgetmbuf:VIDIOCGMBUF");

          return -1;

     }

     return 0;

}

/*      而数据的地址可以有以下方式计算: */

unsigned char *v4lgetaddress(v4ldevice *vd)

{

     return (vd->map + vd->mbuf.offsets[vd->frame]);

}

 

/*   下面给出获取连续影像的最简单的方法(为了简化,将一些可去掉的属性操作都去掉了): */

char* devicename="/dev/video0";

char* buffer;

v4ldevice device;

int width = 640;

int height = 480;

int frame = 0;

v4lopen("/dev/video0",&device);//打开设备

v4lgrabinit(&device,width,height);//初始化设备,定义获取的影像的大小

v4lmmap(&device);//内存映射

v4lgrabstart(&device,frame);//开始获取影像

while(1){

     v4lsync(&device,frame);//等待传完一帧

     frame = (frame+1)%2;//下一帧的frame

     v4lcapture(&device,frame);//获取下一帧

     buffer = (char*)v4lgetaddress(&device);//得到这一帧的地址

//buffer给出了图像的首地址,你可以选择将图像显示或保存......

//图像的大小为 width*height*3

     ..........................

          }

 

/*   为了更好的理解源码,这里给出里面的函数的实现,这里为了简化,将所有的出错处理都去掉了。 */

int v4lopen(char *name, v4ldevice *vd)

{

     int i;

     if((vd->fd = open(name,O_RDWR)) < 0) {

          return -1;

     }

     if(v4lgetcapability(vd))

          return -1;

}

int v4lgrabinit(v4ldevice *vd, int width, int height)

{

     vd->mmap.width = width;

     vd->mmap.height = height;

     vd->mmap.format = vd->picture.palette;

     vd->frame = 0;

     vd->framestat[0] = 0;

     vd->framestat[1] = 0;

     return 0;

}

int v4lmmap(v4ldevice *vd)

{

     if(v4lgetmbuf(vd)<0)

          return -1;

     if((vd->map = mmap(0, vd->mbuf.size, PROT_READ|PROT_WRITE, MAP_SHARED, vd->fd, 0)) < 0) {

          return -1;

     }

     return 0;

}

int v4lgrabstart(v4ldevice *vd, int frame)

{

     vd->mmap.frame = frame;

     if(ioctl(vd->fd, VIDIOCMCAPTURE, &(vd->mmap)) < 0) {

          return -1;

     }

     vd->framestat[frame] = 1;

     return 0;

}

int v4lsync(v4ldevice *vd, int frame)

{

     if(ioctl(vd->fd, VIDIOCSYNC, &frame) < 0) {

          return -1;

     }

     vd->framestat[frame] = 0;

     return 0;

}

int v4lcapture(v4ldevice *vd, int frame)

{

     vd->mmap.frame = frame;

     if(ioctl(vd->fd, VIDIOCMCAPTURE, &(vd->mmap)) < 0) {

          return -1;

     }

     vd->framestat[frame] = 1;

     return 0;

}

 

 

V4L2的开发流程

 

一般操作流程(视频设备):

 

1.  打开设备文件。 int fd=open("/dev/video0",O_RDWR);

2.  取得设备的capability,看看设备具有什么功能,比如是否具有视频输入,或者音频输入输出等。VIDIOC_QUERYCAP,struct v4l2_capability

3.  选择视频输入,一个视频设备可以有多个视频输入。VIDIOC_S_INPUT,struct v4l2_input

4.  设置视频的制式和帧格式,制式包括PAL,NTSC,帧的格式个包括宽度和高度等。

  VIDIOC_S_STD,VIDIOC_S_FMT,struct v4l2_std_id,struct v4l2_format

5.  向驱动申请帧缓冲,一般不超过5个。struct v4l2_requestbuffers

6.  将申请到的帧缓冲映射到用户空间,这样就可以直接操作采集到的帧了,而不必去复制。mmap

7.  将申请到的帧缓冲全部入队列,以便存放采集到的数据.VIDIOC_QBUF,struct v4l2_buffer

8.  开始视频的采集。VIDIOC_STREAMON

9.  出队列以取得已采集数据的帧缓冲,取得原始采集数据。VIDIOC_DQBUF

10. 将缓冲重新入队列尾,这样可以循环采集。VIDIOC_QBUF

11. 停止视频的采集。VIDIOC_STREAMOFF

12. 关闭视频设备。close(fd);

 

常用的结构体(参见/usr/include/linux/videodev2.h):

 

struct v4l2_requestbuffers reqbufs;//向驱动申请帧缓冲的请求,里面包含申请的个数

struct v4l2_capability cap;//这个设备的功能,比如是否是视频输入设备

struct v4l2_input input; //视频输入

struct v4l2_standard std;//视频的制式,比如PAL,NTSC

struct v4l2_format fmt;//帧的格式,比如宽度,高度等

 

struct v4l2_buffer buf;//代表驱动中的一帧

v4l2_std_id stdid;//视频制式,例如:V4L2_STD_PAL_B

struct v4l2_queryctrl query;//某一类型的控制

struct v4l2_control control;//具体控制的值

 

extern int ioctl (int __fd, unsigned long int __request, ...) __THROW;__fd:设备的ID,例如刚才用open函数打开视频通道后返回的cameraFd;

 

__request:具体的命令标志符。

 

在进行V4L2开发中,一般会用到以下的命令标志符:

 

VIDIOC_REQBUFS:分配内存

VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址

VIDIOC_QUERYCAP:查询驱动功能

VIDIOC_ENUM_FMT:获取当前驱动支持的视频格式

VIDIOC_S_FMT:设置当前驱动的频捕获格式

VIDIOC_G_FMT:读取当前驱动的频捕获格式

VIDIOC_TRY_FMT:验证当前驱动的显示格式

VIDIOC_CROPCAP:查询驱动的修剪能力

VIDIOC_S_CROP:设置视频信号的边框

VIDIOC_G_CROP:读取视频信号的边框

VIDIOC_QBUF:把数据从缓存中读取出来

VIDIOC_DQBUF:把数据放回缓存队列

VIDIOC_STREAMON:开始视频显示函数

VIDIOC_STREAMOFF:结束视频显示函数

VIDIOC_QUERYSTD:检查当前视频设备支持的标准,例如PAL或NTSC。

这些IO调用,有些是必须的,有些是可选择的。

 

检查当前视频设备支持的标准

在亚洲,一般使用PAL(720X576)制式的摄像头,而欧洲一般使用NTSC(720X480),使用VIDIOC_QUERYSTD来检测:

v4l2_std_id std;

do {

  ret = ioctl(fd, VIDIOC_QUERYSTD, &std);

} while (ret == -1 && errno == EAGAIN);

switch (std) {

    case V4L2_STD_NTSC:

        //……

    case V4L2_STD_PAL:

        //……

}

设置视频捕获格式

当检测完视频设备支持的标准后,还需要设定视频捕获格式:

struct v4l2_format    fmt;

memset ( &fmt, 0, sizeof(fmt) );

fmt.type                = V4L2_BUF_TYPE_VIDEO_CAPTURE;

fmt.fmt.pix.width       = 720;

fmt.fmt.pix.height      = 576;

fmt.fmt.pix.pixelformat = V4L2_PIX_FMT_YUYV;

fmt.fmt.pix.field       = V4L2_FIELD_INTERLACED;

if (ioctl(fd, VIDIOC_S_FMT, &fmt) == -1) {

  return -1;

}

v4l2_format结构体定义如下:

struct v4l2_format

{

    enum v4l2_buf_type type;    // 数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

    union

    {

        struct v4l2_pix_format    pix; 

        struct v4l2_window        win; 

        struct v4l2_vbi_format    vbi; 

        __u8    raw_data[200];         

    } fmt;

};

struct v4l2_pix_format

{

    __u32                   width;         // 宽,必须是16的倍数

    __u32                   height;        // 高,必须是16的倍数

    __u32                   pixelformat;   // 视频数据存储类型,例如是YUV4:2:2还是RGB

    enum v4l2_field         field;

    __u32                   bytesperline;   

    __u32                   sizeimage;

    enum v4l2_colorspace    colorspace;

    __u32                   priv;      

};

分配内存

接下来可以为视频捕获分配内存:

struct v4l2_requestbuffers  req;

if (ioctl(fd, VIDIOC_REQBUFS, &req) == -1) {

  return -1;

}

v4l2_requestbuffers定义如下:

struct v4l2_requestbuffers

{

    __u32               count;  // 缓存数量,也就是说在缓存队列里保持多少张照片

    enum v4l2_buf_type  type;   // 数据流类型,必须永远是V4L2_BUF_TYPE_VIDEO_CAPTURE

    enum v4l2_memory    memory; // V4L2_MEMORY_MMAP 或 V4L2_MEMORY_USERPTR

    __u32               reserved[2];

};

获取并记录缓存的物理空间

使用VIDIOC_REQBUFS,我们获取了req.count个缓存,下一步通过调用VIDIOC_QUERYBUF命令来获取这些缓存的地址,然后使用mmap函数转换成应用程序中的绝对地址,最后把这段缓存放入缓存队列:

 

typedef struct VideoBuffer {

    void   *start;

    size_t  length;

} VideoBuffer;

 

VideoBuffer*          buffers = calloc( req.count, sizeof(*buffers) );

struct v4l2_buffer    buf;

 

for (numBufs = 0; numBufs < req.count; numBufs++) {

    memset( &buf, 0, sizeof(buf) );

    buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;

    buf.memory = V4L2_MEMORY_MMAP;

    buf.index = numBufs;

    // 读取缓存

    if (ioctl(fd, VIDIOC_QUERYBUF, &buf) == -1) {

        return -1;

    }

 

    buffers[numBufs].length = buf.length;

    // 转换成相对地址

    buffers[numBufs].start = mmap(NULL, buf.length,

        PROT_READ | PROT_WRITE,

        MAP_SHARED,

        fd, buf.m.offset);

 

    if (buffers[numBufs].start == MAP_FAILED) {

        return -1;

    }

 

    // 放入缓存队列

    if (ioctl(fd, VIDIOC_QBUF, &buf) == -1) {

        return -1;

    }

}

关于视频采集方式

操作系统一般把系统使用的内存划分成用户空间和内核空间,分别由应用程序管理和操作系统管理。应用程序可以直接访问内存的地址,而内核空间存放的是 供内核访问的代码和数据,用户不能直接访问。v4l2捕获的数据,最初是存放在内核空间的,这意味着用户不能直接访问该段内存,必须通过某些手段来转换地 址。

一共有三种视频采集方式:使用read、write方式;内存映射方式和用户指针模式。

read、write方式,在用户空间和内核空间不断拷贝数据,占用了大量用户内存空间,效率不高。

内存映射方式:把设备里的内存映射到应用程序中的内存控件,直接处理设备内存,这是一种有效的方式。上面的mmap函数就是使用这种方式。

用户指针模式:内存片段由应用程序自己分配。这点需要在v4l2_requestbuffers里将memory字段设置成V4L2_MEMORY_USERPTR。

处理采集数据

V4L2有一个数据缓存,存放req.count数量的缓存数据。数据缓存采用FIFO的方式,当应用程序调用缓存数据时,缓存队列将最先采集到的 视频数据缓存送出,并重新采集一张视频数据。这个过程需要用到两个ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:

struct v4l2_buffer buf;

memset(&buf,0,sizeof(buf));

buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;

buf.memory=V4L2_MEMORY_MMAP;

buf.index=0;

//读取缓存

if (ioctl(cameraFd, VIDIOC_DQBUF, &buf) == -1)

{

    return -1;

}

//…………视频处理算法

//重新放入缓存队列

if (ioctl(cameraFd, VIDIOC_QBUF, &buf) == -1) {

 

    return -1;

}

关闭视频设备

使用close函数关闭一个视频设备

close(cameraFd)

 

抱歉!评论已关闭.