Chinaunix首页 | 论坛 | 博客
  • 博客访问: 4470944
  • 博文数量: 1148
  • 博客积分: 25453
  • 博客等级: 上将
  • 技术积分: 11949
  • 用 户 组: 普通用户
  • 注册时间: 2010-05-06 21:14
文章分类

全部博文(1148)

文章存档

2012年(15)

2011年(1078)

2010年(58)

分类: LINUX

2010-12-25 20:57:38

一、用mmap(内存映射)方式截取视频

mmap( )系统调用使得进程之间通过映射同一个普通文件实现共享内存。普通文件被映射到进程地址空间后,进程可以向访问普通内存一样对文件进行访问,不必再调用read()write()等操作。两个不同进程AB共享内存的意思是,R>同一块物理内存被映射到进程AB各自的进程地址空间。进程A可以即时看到进程B对共享内存中数据的更新,反之亦然。

采用共享内存通信的一个显而易见的好处是效率高,因为进程可以直接读写内存,而不需要任何数据的拷贝

1)设置picture的属性

2)初始化video_mbuf,以得到所映射的buffer的信息

ioctl(vd->fd, VIDIOCGMBUF, &(vd->mbuf))

3)可以修改video_mmap和帧状态的当前设置

4)将mmapvideo_mbuf绑定

void* mmap ( void * addr , size_t len , int prot , int flags , int fd , off_t offset )

len:映射到调用进程地址空间的字节数,它从被映射文件开头offset个字节开始算起

Prot:指定共享内存的访问权限 PROT_READ(可 读), PROT_WRITE (可写),PROT_EXEC (可执行)

FlagsMAP_SHARED MAP_PRIVATE中必选一个,MAP_ FIXED不推荐使用

Addr:共内存享的起始地址,一般设0,表示由系统分配

Mmap( ) 返回值是系统实际分配的起始地址

int v4l_mmap_init(v4l_device *vd)

{

if (v4l_get_mbuf(vd) < 0)

return -1;

 

if ((vd ->map = mmap(0, vd->mbuf.size, PROT_READ|PROT_WRITE, MAP_SHARED, vd->fd, 0)) < 0)

{

perror("v4 l_mmap_init:mmap");

return -1;

}

 

return 0;

}

5Mmap方式下真正做视频截取的 VIDIOCMCAPTURE

ioctl(vd->fd, VIDIOCMCAPTURE, &(vd->mmap)) ;

若调用成功,开始一帧的截取,是非阻塞的,是否截取完毕留给VIDIOCSYNC来判断

6)调用VIDIOCSYNC等待一帧截取结束

if(ioctl(vd->fd, VIDIOCSYNC, &frame) < 0)

{

perror("v4l_sync:VIDIOCSYNC");

return -1;

}

若成功,表明一帧截取已完成。可以开始做下一次VIDIOCMCAPTURE frame是当前截取的帧的序号。

********关于双缓冲************

video_bmuf bmuf.frames = 2;一帧被处理时可以采集另一帧

int frame; //当前采集的是哪一帧

int framestat[2]; //帧的状态 没开始采集|等待采集结束

帧的地址由vd->map + vd->mbuf.offsets[vd->frame]得到。

采集工作结束后调用munmap取消绑定

munmap(vd->map, vd->mbuf.size)

在实际应用时还可以采用缓冲队列等方式。

二、视频截取的第二种方法:直接读设备

关于缓冲大小,图象等的属性须由使用者事先设置

调用read();

int read (要访问的文件描述符;指向要读写的信息的指针;应该读写的字符数);

返回值为实际读写的字符数

int len ;

unsigned char

*vd->map=(unsigned char *) malloc(vd?capability.maxwidth*vd?capability.maxheight );

len = read(vd?fd,vd? vd->map,

vd?capability.maxwidth*vd?capability.maxheight*3 );

2.3 编程实例(mouse_capture

不管是ov511还是zc301的摄像头,它们采集的方式都是相同的,只不过采集到的数据有所差异,ov511的就是rgb的位流,而zc301jpeg编码的位流。

mouse_capture是根据servfox改编的一个专门从zc301摄像头获取一张jpeg图片,用来测试摄像头是否加载成功的小程序。这样就可以不用cat /dev/video0>1.jpg来测试摄像头是否正常。cat命令一运行,就源源不断地采集jpeg流。但是采到的图片只能显示第一个jpeg头和jpeg尾之间的数据。mouse_capture仅仅获得一张完整的jpeg。可以从()处下载参考。

现将主要函数的功能介绍如下:

static int GetVideoPict (struct vdIn *vd);//获取图片属性信息。

static int SetVideoPict (struct vdIn *vd);//设置图片属性。

static int isSpcaChip (const char *BridgeName);//测试芯片类型

static int GetStreamId (const char *BridgeName); //测试输出数据的格式

static int GetDepth (int format);//获取颜色深度。

void exit_fatal(char *messages);//错误显示。

int init_videoIn(struct vdIn *vd,char *device,int width,int height,int format,int grabmethod);//初始化设备。

int convertframe(unsigned char *dst,unsigned char *src, int width,int height, int formatIn, int size);//把共享缓冲区中的数据放到一个变量中,通知系统已获得一帧。

int v4lGrab (struct vdIn *vd,char *filename );//从摄像头采集图片。

int close_v4l (struct vdIn *vd);//关闭摄像头。

int get_jpegsize (unsigned char *buf, int insize);//获取jpeg图片大小。

实例程序

3.1 LCD 实时显示从ov511 上采集的图像

参考HHARM9-EDU/applications/usbcam2lcd。从摄像头获取bmp位流直接显示在framebuffer中。此程序图像的采集采用read的方式,注意由于lcd液晶屏显示的是16bitsRGB图片,所以,ov511输出的图片格式也应该是16bitsRGB图片数据,宏VIDEO_PALETTE_RGB565定义的就是16bitsRGB数据图片。而linux自带的ov511驱动中图像采集是32位的,这样采集到的图片显示在lcd上是雪花点。因此需要修改驱动。在kernet/driver/usb/目录下有ov511芯片的驱动ov511.c,驱动里的ov51x_set_default_params函数是设置芯片默认的输出图片的格式,该函数中的

for (i = 0; i < OV511_NUMFRAMES; i++)

{

ov511->frame[i].width = ov511->maxwidth;

ov511->frame[i].height = ov511->maxheight;

ov511->frame[i].bytes_read = 0;

if (force_palette)

ov511->frame[i].format = force_palette;

else

ov511->frame[i].format = VIDEO_PALETTE_RGB24;

 

ov511->frame[i].depth = ov511_get_depth(ov511->frame[i].format);

}

部分语句是主要设置ov511默认输出图片格式的,其中maxwidthmaxheight设置了图片的最大的宽度和高度。Ifelse语句设置了图片的格式,作如下的修改:

for (i = 0; i < OV511_NUMFRAMES; i++)

{

ov511->frame[i].width = ov511->maxwidth;

ov511->frame[i].height = ov511->maxheight;

ov511->frame[i].bytes_read = 0;

ov511->frame[i].format = VIDEO_PALETTE_RGB565;

ov511->frame[i].depth = ov511_get_depth(ov511->frame[i].format);

}

如果需要,也可以改变图片的默认输出大小。

3.2 LCD 实时显示从zc301 上采集的图像

编程思想:从摄像头采集到的图片存放在本地文件夹,通过minigui加载jpeg来实现显示。

具体过程:

1.从网上下载jpegsrc-6bjpeg库,交叉编译。

1./configure –enable-static –enable-shared –prefix=.libs

2)修改Makefile,将编译器改成交叉编译器。

例如:我改成/opt/host/armv4l/bin/armv4l-unknown-linux-gcc

3make 后即在.libs目录中生成for armlibjpeg.a, libjpeg.la, libjpeg.so, libjpeg.so.62, libjpeg.so.62.0.0。将这些文件拷贝到系统库文件目录,我的是/usr/lib中。

2.因为看从zc301采集的图片的二进制位流,jpeg头是ff d8 ff db。而在minigui库文件libminigui的源文件src/mybmp/jpeg.c中,load_jpgcheck_jpg的时候测试的头位EXIFJFIF两种格式的jpeg图片。这两种对应的二进制分别是ff d8 ff e1ff d8 ff e0。所以我们minigui通过判断认为这是错误的jpeg格式而不加载,故无法显示。实际上通过测试,在源码中去掉这两个判断就能正确加载。

3.交叉编译minigui

1 编译库: ./configure --host=arm-unknown-linux --enable-jpgsupport=yes

--enable-pngsupport=no --enable-gifsupport=no --disable-lite

--prefix=/HHARM9-EDU/applications/minigui-free/nfsroot

--enable-smdk2410ial=yes

make

make install

2)编译实例程序时,要加上jpeg库的支持,即在Makefile中加上-ljpeg。此时将在nfsroot生成的库文件和可执行文件移到ramdisk.image.gz相应的目录下。(具体参考华恒的2410开发手册)。

3Minigui程序的编写

编程小技巧,我采取的方法是一刻不停地从摄像头采集到图片存储在/tmp/1.jpg中,在minigui中通过loadbitmap函数来加载图片。而图片加载后不会自动更新,不能自动根据1.jpg的改变自动变化。因此,我在程序中设定一个timer。每隔100ms刷新屏幕,基本上实现实时更新了。而出现另外一个问题,刷新时会以背景色来填充桌面,导致屏幕闪烁严重。故想到采用MSG_ERASEBKGND的方式,用前一张图片做为刷新屏幕时的填充背景图片。这样就保证了lcd上图像的连续性啦。

Minigui程序如下:其中一些自定义的函数跟mouse_capture中的一样,只是变采集单幅到采集多幅。具体您可以自己改一下:)。也可以向我索取源码。

#include

#include

#include

#include

#include

#include "spcav4l.h"

#define IDTIMER 100

static BITMAP bmp;

static int LoadBmpWinProc(HWND hWnd, int message, WPARAM wParam, LPARAM lParam)

{

HDC hdc;

RECT rc={0,0,240,320};

switch (message)

{

case MSG_CREATE:

SetTimer(hWnd,IDTIMER,100);

return 0;

 

case MSG_ERASEBKGND:

{

RECT rcTemp;

if( LoadBitmap(HDC_SCREEN,&bmp,"/tmp/1.jpg"))

{

printf("load wrong!\n");

return -1;

}

 

GetClientRect(hWnd, &rcTemp);

hdc = BeginPaint (hWnd);

FillBoxWithBitmap (hdc, rcTemp.left, rcTemp.top, rcTemp.right-rcTemp.left, rcTemp.bottom-rcTemp.top, &bmp);

EndPaint(hWnd, hdc);

return 0;

}

 

case MSG_TIMER:

InvalidateRect(hWnd,&rc,TRUE);

return 0;

 

case MSG_CLOSE:

UnloadBitmap (&bmp);

DestroyMainWindow (hWnd);

PostQuitMessage (hWnd);

return 0;

}

 

return DefaultMainWinProc(hWnd, message, wParam, lParam);

}

 

int MiniGUIMain (int argc, const char* argv[])

{

MSG Msg;

HWND hMainWnd;

MAINWINCREATE CreateInfo;

char videodevice[] = "/dev/video0";

char jpegfile[] = "/tmp/1.jpg";

int grabmethod = 0;

int format = VIDEO_PALETTE_JPEG;

int width = 240;

int height = 320;

int i;

#ifdef _LITE_VERSION

SetDesktopRect(0, 0, 1024, 768);

#endif

CreateInfo.dwStyle = WS_VISIBLE | WS_BORDER | WS_CAPTION;

CreateInfo.dwExStyle = WS_EX_NONE;

CreateInfo.spCaption = "Load and display a bitmap";

CreateInfo.hMenu = 0;

CreateInfo.hCursor = GetSystemCursor(0);

CreateInfo.hIcon = 0;

CreateInfo.MainWindowProc = LoadBmpWinProc;

CreateInfo.lx = 0;

CreateInfo.ty = 0;

CreateInfo.rx = 240;

CreateInfo.by = 320;

CreateInfo.iBkColor = PIXEL_lightwhite;

CreateInfo.dwAddData = 0;

CreateInfo.hHosting = HWND_D

ESKTOP;

hMainWnd = CreateMainWindow (&CreateInfo);

if (hMainWnd == HWND_INVALID)

return -1;

 

ShowWindow (hMainWnd, SW_SHOWNORMAL);

memset(&videoIn, 0, sizeof (struct vdIn));

if(init_videoIn(&videoIn, videodevice, width, height, format,grabmethod) == 0)

{

printf("init is ok!\n");

}

else printf("init is wrong!\n");

 

while (GetMessage(&Msg, hMainWnd))

{

TranslateMessage(&Msg);

v4lGrab(&videoIn, jpegfile);

DispatchMessage(&Msg);

}

 

close_v4l (&videoIn);

MainWindowThreadCleanup (hMainWnd);

return 0;

}

#ifndef _LITE_VERSION

#include

#endif

先写到这里吧,呵呵,希望能对您有所帮助。如果您在阅读的过程中发现问题,欢迎和我交流。

2006-7-7

参考文献

1HHARM2410摄像头调试记录 华恒科技

2.基于video4linux的视频设备编程 Lingzhi_Shi Apr 7 2004

3.《video4linux programming Alan Cox

4.《video streaming 探讨》 陈俊宏

5.《Video4Linux Kernel API Reference

6

阅读(1230) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~