Chinaunix首页 | 论坛 | 博客
  • 博客访问: 2707402
  • 博文数量: 416
  • 博客积分: 10220
  • 博客等级: 上将
  • 技术积分: 4193
  • 用 户 组: 普通用户
  • 注册时间: 2006-12-15 09:47
文章分类

全部博文(416)

文章存档

2022年(1)

2021年(1)

2020年(1)

2019年(5)

2018年(7)

2017年(6)

2016年(7)

2015年(11)

2014年(1)

2012年(5)

2011年(7)

2010年(35)

2009年(64)

2008年(48)

2007年(177)

2006年(40)

我的朋友

分类: WINDOWS

2007-01-31 15:05:32

Posted on 2006-Mar-13 at 03:24
当下比较流行的即时工具,比如MSN,QQ等都实现了视音频的功能,通过视频,音频,我们可以更好的和朋友通过网络进行沟通,本文通过DirectShow技术模拟QQ实现了视频和音频的采集,传输,基本实现了QQ的视音频聊天的功能。

   网络视音频系统主要功能就在于视音频的采集,网络传输两个方面,通过Video Capture系列API函数,你就可以轻松的搞定视频捕捉,但是对于视频的网络传输,则要费一番功夫了。 对于视音频数据的传输,只简单地使用数据报套接字传输音视频数据是不可行的,还必须在UDP层上采用RTP(实时传输协议)和RTCP(实时传输控制协 议)来改善服务质量。实时传输协议提供具有实时特征的、端到端的数据传输服务。我们在音视频数据前插入包含有载荷标识、序号、时间戳和同步源标识符的 RTP包头,然后利用数据报套接字在IP网络上传输RTP包,以此改善连续重放效果和音视频同步。实时传输控制协议RTCP用于RTP的控制,它最基本的 功能是利用发送者报告和接收者报告来推断网络的服务质量,若拥塞状况严重,则改用低速率编码标准或降低数据传输比特率,以减少网络负荷,提供较好的Q.S 保证。

  Directshow对于音视频的采集提供了很好的接口,利用ICaptureGraphBuilder2接口可以很轻松的建 立起视频捕捉的graph图,通过枚举音频设备Filter,也可以很轻松的实现音频的捕捉,有点麻烦的是音视频数据的传输,我们可以自己封装RTP和 RTCP的协议,来自己实现一个filter,用来发送和接收音视频数据,当然了Directshow也提供了一组支持使用RTP协议的网络传输多媒体流 的Filters。你也完全可以用Directshow提供的RTP系列的filter实现数据的传输。

  下面分析一下这些RTP Filters。

   新定义的Filter包括 RTP Source Filter ,RTP Render Filter,RTP Demux Filter,RTP Receive Playload Handler (RPH) filter,RTP Send Payload (SPH) filter,使用这5个filter构建一个通过RTP协议传输音视频数据的Graph是没有问题的。

  RTP Source filter被用来从一个单独的RTP会话中接收RTP和RTCP包。这个filter提供一个指定发送给其它主机RTCP接收器报告和指定网络地址和端口接口来接收RTP会话的接口。

  RTP Rend filter是用来将数据发到网络上的一个filter,这个filter也提供了和RTP source Filter 类似的接口。

  RTP Demux filter用来多路分离来自 RTP Source filter的RTP 包,这个filter有一个或者多个输出的pin。这个Filter提供了如何控制多路分离和如何分配到特定输出pin的接口。

  RTP RPH Filter 是用来网络过来的RTP包还原成原来的数据格式,主要支持H.261,H.263,Indeo,G.711,G.723和G.729和常见的多种音视频负载类型。

  RTP SPH filter则和RPH filter的功能相对,它的任务是将音视频 压缩filter输出的 数据分解为RTP包,它提供的接口有指定最大生成包大小和pt值。

  下面我们看看如何用这些filter来搭建我们采集和传输的graph图。




   图1和图2展示了DirectShow RTP中定义的filters如何运用。图1是一个采集本地多媒体数据并使用RTP协议通过网络发送的filter graph。它包含一个输出原始视频帧的视频采集filter,紧跟一个压缩帧的编码filter。一旦压缩,这些帧就会被发送到RTP SPH filter,分片打包,生成RTP包,对应的发送到 RTP Render filter,通过网络传输这些包。图2展现了一个filter graph,用来接收包含视频流RTP包,播放视频。这个graph由一个用来接收包的RTP Source filter,一个根据源和负载类型进行分类的RTP Demux filter,一个把RTP包转为压缩视频帧的RTP RPH filter组成。这些filter随后的是用来解压帧的解码filter,一个显示未压缩帧的渲染filter。

  有了RTP filter的帮助我们就可以完成类似qq的功能了,可以实现在网络上进行视频和音频的交互了,下面我给出在网络上两个客户端A和B进行音频和视频交互的 Graph图。这里我对图1和图2中的RTP filter进行了自己封装,将编解码filter直接封装到了RTP Source filter 和RTP Render filter中,这样Graph图就显得很简洁,RTP Source filter只是用来接收网络过来的音视频数据,然后将数据传递给客户程序,RTP Render filter则是将采集到的音视频数据发送到网络上的另一个客户端,编解码则的工作则封装到这两个filter之中。


图3 网络视频和音频交互的Graph图

  如果你也想自己封装自己的Source 和Render filter,首先你要选择自己的编解码,视频编解码是选择H261,H263,还是 MEPG4,音频是选择G729还是G711,要首先确定好。选好编解码,封装的工作就简单了。

  不多说了,下面看看我给出的代码吧。

  首先要定义一下用到的四个RTP filter的CLSID。

static const GUID CLSID_FG729Render = { 0x3556f7d8, 0x5b5, 0x4015, { 0xb9, 0x40, 0x65, 0xb8, 0x8, 0x94, 0xc8, 0xf9 } }; //音频发送
static const GUID CLSID_FG729Source = { 0x290bf11a, 0x93b4, 0x4662, { 0xb1, 0xa3, 0xa, 0x53, 0x51, 0xeb, 0xe5, 0x8e } };//音频接收
static const GUID CLSID_FH263Source = { 0xa0431ccf, 0x75db, 0x463e, { 0xb1, 0xcd, 0xe, 0x9d, 0xb6, 0x67, 0xba, 0x72 } };//视频接收
static const GUID CLSID_FH263Render = { 0x787969cf, 0xc1b6, 0x41c5, { 0xba, 0xa8, 0x4e, 0xff, 0xa3, 0xdb, 0xe4, 0x1f } };//视频发送
//发送和接收音视频数据的filter
CComPtr< IBaseFilter > m_pAudioRtpRender ;
CComPtr< IBaseFilter > m_pAudioRtpSource ;
CComPtr< IBaseFilter > m_pVideoRtpRender ;
CComPtr< IBaseFilter > m_pVideoRtpSource ;

char szClientA[100];
int iVideoPort = 9937;
int iAudioPort = 9938;

//构建视频的graph图,并发送数据
CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //视频图形管理器
CComPtr< ICaptureGraphBuilder2 > m_pVideoCapGraphBuilder;
CComPtr< IBaseFilter > m_pFilterVideoCap;
CComPtr< IVideoWindow > m_pVideoWindow;
CComPtr< IMediaControl > m_pVideoMediaCtrl ;
CComPtr< IBaseFilter > m_pVideoRenderFilter;

HRESULT CMyDialog::VideoGraphInitAndSend()
{
 HRESULT hr;
 hr =m_pVideoGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
 if(FAILED(hr))
  return hr;
 hr =m_pVideoCapGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
 if(FAILED (hr))
  return hr;
 m_pVideoCapGraphBuilder->SetFiltergraph(m_pVideoGraphBuilder);
 m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
 m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)

 FindDeviceFilter(&m_pFilterVideoCap,CLSID_VideoInputDeviceCategory);
 if(m_pFilterVideoCap)
  m_pVideoGraphBuilder->AddFilter( m_pFilterVideoCap,T2W("VideoCap") ) ;
  //创建预览的filter
 hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
 if(FAILED(hr))
  return hr;
 m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
 Connect(m_pFilterVideoCap ,m_pRenderFilterVideo) ;
 //设置预览的窗口

 CRect rc ;
 GetClientRect(m_hOwnerWnd, &rc );
 int iWidth = rc.right - rc.left ;
 int iHeight = rc.bottom - rc.top ;
 int iLeft, iTop;
 if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
 {
  //按宽度算
  int tmpiHeight = iWidth*3/4;
  iTop = (iHeight - tmpiHeight)/2;
  iHeight = tmpiHeight;
  iLeft = 0;
 }
 else
 {
  //按高度算
  int tmpiWidth = iHeight*4/3;
  iLeft = (iWidth - tmpiWidth)/2;
  iWidth = tmpiWidth;
  iTop = 0;
 }
 m_pVideoWindow->put_Owner( (OAHWND) m_hPreviewWnd ) ;
 m_pVideoWindow->put_Visible( OATRUE );
 m_pVideoWindow->put_Windowstyle( WS_CHILD | WS_CLIPSIBLINGS ) ;

 //连接到网络并发送
 CComPtr< IRtpOption > pRenderOption;
 CComPtr< IVideoOption > pVideoOption;

 tagVideoInfo vif(160,120,24);
 int t=((int)(m_iFrameRate/5)*5)+5;
 vif.nBitCount=24;
 vif.nWidth=160;
 vif.nHeight=120;

 hr = ::CoCreateInstance(CLSID_FH263Render, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpRender);
 if(FAILED(hr))
  return hr;
 m_pVideoRtpRender->QueryInterface(IID_IJRTPOption, (void**)&pRenderOption);
 m_pVideoRtpRender->QueryInterface(IID_IVideoOption,(void**)&pVideoOption);
 pVideoOption->SetProperty(&vif);
 pVideoOption->SetSendFrameRate(m_iFrameRate,1);//1 不发送数据,0 实际发送数据
 Connect(m_pFilterVideoCap ,m_pVideoRtpRender) ;
 //连接对方
 hr= pRenderOption->Connect(szClientA,iVideoPort,1024);
 if(FAILED(hr))
  return hr;
 m_pVideoMediaCtrl->Run();
}
//视频的接收
CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //视频图形管理器
CComPtr< IBaseFilter > m_pFilterVideoCap;
CComPtr< IVideoWindow > m_pVideoWindow;
CComPtr< IMediaControl > m_pVideoMediaCtrl ;
CComPtr< IBaseFilter > m_pVideoRenderFilter;
HWND m_hRenderWnd ;
HRESULT VideoRecive()
{
 HRESULT hr;
 hr=CoCreateInstance(CLSID_FilterGraph,NULL,CLSCTX_INPROC,
 IID_IFilterGraph,(void**)&m_pVideoGraphBuilder);

 m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
 m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)
 
 hr = ::CoCreateInstance(CLSID_FH263Source, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpSource);
 if(FAILED(hr))
  return hr;
 m_pVideoGraphBuilder->AddFilter(m_pVideoRtpSource, L"My Custom Source");

 CComPtr< IRtpOption > m_pRtpOption;
 CComPtr< IVideoOption > m_pVideoOption;
 m_pVideoRtpSource->QueryInterface(IID_IJRTPOption, (void **)&m_pRtpOption);
 m_pVideoRtpSource->QueryInterface(IID_IVideoOption, (void **)&m_pVideoOption);

 tagVideoInfo vif(160, 120 ,24);
 m_pVideoOption->SetProperty(&vif);
 hr= pRenderOption->Connect(szClientA,iVideoPort +1,1024);
 if(FAILED(hr))
  return hr;

 //创建预览的filter
 hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
 if(FAILED(hr))
  return hr;
 m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
 Connect(m_pVideoRtpSource ,m_pRenderFilterVideo) ;

 CRect rc ;
 GetClientRect(m_hOwnerWnd, &rc );
 int iWidth = rc.right - rc.left ;
 int iHeight = rc.bottom - rc.top ;
 int iLeft, iTop;
 if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
 {
  //按宽度算
  int tmpiHeight = iWidth*3/4;
  iTop = (iHeight - tmpiHeight)/2;
  iHeight = tmpiHeight;
  iLeft = 0;
 }
 else
 {
  //按高度算
  int tmpiWidth = iHeight*4/3;
  iLeft = (iWidth - tmpiWidth)/2;
  iWidth = tmpiWidth;
  iTop = 0;
 }
 m_pVideoWindow->put_Owner( (OAHWND) m_hRenderWnd ) ;
 m_pVideoWindow->put_Visible( OATRUE );
 m_pVideoWindow->put_WindowStyle( WS_CHILD | WS_CLIPSIBLINGS ) ;
 m_pVideoMediaCtrl->Run();

 return S_OK;
}
//
HRESULT FindDeviceFilter(IBaseFilter ** ppSrcFilter,GUID deviceGUID)
{
 HRESULT hr;
 IBaseFilter * pSrc = NULL;
 CComPtr pMoniker =NULL;
 ULONG cFetched;

 if (!ppSrcFilter)
  return E_POINTER;

 // Create the system device enumerator
 CComPtr pDevEnum =NULL;

 hr = CoCreateInstance (CLSID_SystemDeviceEnum, NULL, CLSCTX_INPROC,
 IID_ICreateDevEnum, (void **) &pDevEnum);
 if (FAILED(hr))
  return hr;

 // Create an enumerator for the video capture devices
 CComPtr pClassEnum = NULL;

 hr = pDevEnum->CreateClassEnumerator (deviceGUID, &pClassEnum, 0);
 if (FAILED(hr))
  return hr;

 if (pClassEnum == NULL)
  return E_FAIL;

 if (S_OK == (pClassEnum->Next (1, &pMoniker, &cFetched)))
 {
  hr = pMoniker->BindToObject(0,0,IID_IBaseFilter, (void**)&pSrc);
  if (FAILED(hr))
   return hr;
 }
 else
  return E_FAIL;

 *ppSrcFilter = pSrc;

 return S_OK;
}

//构建音频Graph图,并发送
CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音频图形管理器
CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
CComPtr< IBaseFilter > m_pFilterAudioCap;
CComPtr< IMediaControl > m_pAudioMediaCtrl ;

HRESULT AudioGraphInit()
{
 HRESULT hr;
 hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
 if(FAILED(hr))
  return hr;
 hr =m_pCapAudioGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
 if(FAILED (hr))
  return hr;
 m_pAudioGraphBuilder->SetFiltergraph(m_pCapAudioGraphBuilder);
 m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);

 FindDeviceFilter(&m_pFilterVideoCap,CLSID_AudioInputDeviceCategory);
 if(m_pFilterAudioCap)
  m_pAudioGraphBuilder->AddFilter( m_pFilterAudioCap,T2W("AudioCap") ) ;

 //发送到网络
 hr =::CoCreateInstance(CLSID_FG729Render,NULL,CLSCTX_INPROC,
 IID_IBaseFilter,(void**)&m_pFilterRtpSendAudio)
 if(FAILED(hr))
  return hr;
 m_pAudioGraphBuilder->AddFilter(m_pAudioRtpRender, L"FilterRtpSendAudio");
 Connect(m_pFilterAudioCap,m_pAudioRtpRender);

 CComPtr< IRtpOption > pOption ;
 m_pAudioRtpRender->QueryInterface(IID_IJRTPOption,(void**)&pOption)
 hr =pOption->Connect(szClientA,iAudioPort,1024);
 if(FAILED(hr))
  return hr;

 m_pAudioMediaCtrl->Run();
 return S_OK;
}
//音频的接收
CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音频图形管理器
CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
CComPtr< IBaseFilter > m_pFilterAudioCap;
CComPtr< IMediaControl > m_pAudioMediaCtrl ;
CComPtr m_pAudioRender;
HRESULT AudioRecive()
{
 HRESULT hr;
 hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
 if(FAILED(hr))
  return hr;
 m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);

 hr = m_pAudioRtpSource->CoCreateInstance(CLSID_FG729Source) ;
 if(FAILED(hr))
  return hr;
 m_pAudioGraphBuilder->AddFilter(m_pAudioRtpSource,L"AudioRtp");
 //创建声卡Renderfilter
 FindDeviceFilter(&m_pAudioRender,CLSID_AudioRendererCategory);
 m_pAudioGraphBuilder->AddFilter(m_pAudioRender,L"AudioRender");
 CComPtr< IRtpOption > pRtpOption ;
 m_pAudioRtpSource->QueryInterface(IID_IJRTPOption,(void**)&pRtpOption)
 hr= pRtpOption->Connect(szClientA,iAudioPort+2,1024);
 if(FAILED (hr))
  return hr;

 Connect(m_pAudioRtpSource,m_pAudioRender);
 
 m_pAudioMediaCtrl->Run();
 return S_OK;
}
:: :: ::

DirectShow编程捕捉WDM与VFW

Posted on 2006-Mar-13 at 03:09
说起视频捕捉问题,我们先要来看一下视频捕捉卡。根据使用的驱动程序的不同来分类,目前市场上大致有两种捕捉卡: VFW (Video for Windows)卡和WDM (Windows Driver Model)卡。前者是一种趋于废弃的驱动模型,而后者是前者的替代模型;WDM还支持更多新的特性,比如直接支持电视接收、视频会议、1394接口的设 备、桌面摄像机、多条视频流(Line-21或Closed-Caption等)同时输出等等。采用VFW的一般都是些以前生产的卡;市面上新出现的,一般都是采用了WDM驱动程序。另外,视频捕捉卡的接口,可以是以PCI或AGP的方式插入PC机箱,也可以直接以USB接口的方式外挂;还有就是通过1394接口与PC机相连的数码摄像机等等。

   使用DirectShow来处理一般的视频捕捉问题,是相对比较简单的。这当然得益于DirectShow这一整套先进的应用架构。捕捉卡通常也是以一 个(Capture) Filter的形式出现的。处理视频捕捉,我们同样是使用Filter Graph,同样是操作Filter;控制起来,就似于操作媒体文件的播放。当然,这主要是从应用程序控制层面上来说的;视频捕捉的应用场合比较多,视频 捕捉本身的一些处理还是有它的特殊性的,而且牵涉面比较广。本文侧重于阐述一个建立视频捕捉程序的一般过程,以及WDM与VFW的兼容性问题。

   当视频捕捉卡正确安装到系统中后,使用GraphEdit插入Filter,我们可以在“Video Capture Sources”目录下看到代表捕捉卡的那个Filter。一般一个Capture Filter至少有一个Capture Output Pin;典型的情况下,还有一个Preview Pin或者Video Port Pin(一般Preview Pin和VP Pin不会共存)。有些视频捕捉卡,能够同时捕捉Video和Audio,那么它的Filter自然还应该有Audio部分的输出Pin。视频捕捉卡都注 册在CLSID_VideoInputDeviceCategory目录之下;要知道系统中安装了哪些捕捉卡,需要利用系统枚举,如下:

ICreateDevEnum *pDevEnum = NULL;
IEnumMoniker *pEnum = NULL;
// Create the System Device Enumerator.
HRESULT hr = CoCreateInstance(CLSID_SystemDeviceEnum, NULL,
CLSCTX_INPROC_SERVER, IID_ICreateDevEnum,
reinterpret_cast(&pDevEnum));
if (SUCCEEDED(hr))
{
// Create an enumerator for the video capture category.
hr = pDevEnum->CreateClassEnumerator(
CLSID_VideoInputDeviceCategory, &pEnum, 0);
}

  Capture Filter的创建也不是象其他Filter一样使用CoCreateInstance,而是在枚举的过程中BindToObject。在这一点上,对WDM卡和VFW卡的处理是一致的。

  将Capture Filter加入Filter Graph之后,剩下的Filter怎么连接?DirectShow给我们提供了一个简单的解决方法:使用ICaptureGraphBuilder2接口。如下创建:

IGraphBuilder *pGraph = 0;
ICaptureGraphBuilder2 *pBuild = 0;
// Create the Capture Graph Builder.
HRESULT hr = CoCreateInstance(CLSID_CaptureGraphBuilder2, 0,
CLSCTX_INPROC_SERVER, IID_ICaptureGraphBuilder2,
(void**)&pGraph);
if (SUCCEEDED(hr))
{
// Create the Filter Graph Manager.
hr = CoCreateInstance(CLSID_FilterGraph, 0, CLSCTX_INPROC_SERVER,
IID_IGraphBuilder, (void**)&pGraph);
if (SUCCEEDED(hr))
{
// Initialize the Capture Graph Builder.
pBuild->SetFiltergraph(pGraph);
}
}

   接下来,就是使用ICaptureGraphBuilder2::RenderStream来继续各个Output Pin的连接。值得注意的是,这里有一个Pin Category的概念,作为RenderStream的第一个参数,比如Preview Pin的目录为PIN_CATEGORY_PREVIEW,Capture Pin的目录为PIN_CATEGORY_CAPTURE等等。下面是Preview Pin的连接示例:

ICaptureGraphBuilder2 *pBuild; // Capture Graph Builder
// Initialize pBuild (not shown).
IBaseFilter *pCap; // Video capture filter.
/* Initialize pCap and add it to the filter graph (not shown). */
hr = pBuild->RenderStream(&PIN_CATEGORY_PREVIEW, &MEDIATYPE_Video,
pCap, NULL, NULL);

   调用RenderStream实现Preview链路,不管Capture Filter是否有Preview Pin或者只有VP Pin,Capture Graph Builder都能自动正确地处理。(如果只有VP Pin,则自动连接VP Pin;如果Capture Filter只有一个Capture Output Pin,则自动插入一个Smart Tee Filter然后再连接。)
要实现视频捕捉到文件,最简单的方法也是使用ICaptureGraphBuilder2::RenderStream。如下(假设生成的是AVI文件):

IBaseFilter *pMux;
hr = pBuild->SetOutputFileName(
&MEDIASUBTYPE_Avi, // Specifies AVI for the target file.
L"C:\\Example.avi", // File name.
&pMux, // Receives a pointer to the mux.
NULL);
hr = pBuild->RenderStream(
&PIN_CATEGORY_CAPTURE, // Pin category.
&MEDIATYPE_Video, // Media type.
pCap, // Capture filter.
NULL, // Intermediate filter (optional).
pMux); // Mux or file sink filter.

// Release the mux filter.
pMux->Release();

  下面是典型的两个经过RenderStream以后构建的Capture Filter Graph的示意图:

137372.jpg

137373.jpg

   使用Capture Graph Builder构建Filter链路的好处,还在于它能自动加入Crossbar Filter(用于选择捕捉卡的输入端子,一般有三种:AV、S-Video、TV),如果是电视卡的话还有TV Tuner Filter等等;使用ICaptureGraphBuilder2::FindInterface就可以找到相应的控制接口等等。

   跟WDM卡相比,VFW卡实现的功能要简单得多。上述的Filter Graph创建过程,两种卡的处理是相似的;而对于视频捕捉的设置,则有较大的差异。WDM Capture Filter的执行文件为kswdmcap.ax,它实际上是kernel-mode下KsProxy的一个插件;而DirectShow使用了一个标识 为CLSID_VfwCapture的Filter来支持VFW卡。WDM卡,设置Capture输出的图像格式、图像的对比度、亮度、色度、饱和度等, 都是通过IAMStreamConfig、IAMVideoProcAmp等接口来实现(当然,在GraphEdit中可以通过Filter的 Property Page来设置);而VFW卡,一般要将驱动程序内的设置对话框显示给用户。VFW驱动程序一般实现三个设置对话框:Video Source(设置图像源属性)、Video Format(设置图像输出格式)和Video Display(设置图像显示属性)。下面是显示Video Source对话框的示例:

pControl->Stop(); // Stop the graph.
// Query the capture filter for the IAMVfwCaptureDialogs interface.
IAMVfwCaptureDialogs *pVfw = 0;
hr = pCap->QueryInterface(IID_IAMVfwCaptureDialogs, (void**)&pVfw);
if (SUCCEEDED(hr))
{
// Check if the device supports this dialog box.
if (S_OK == pVfw->HasDialog(VfwCaptureDialog_Source))
{
// Show the dialog box.
hr = pVfw->ShowDialog(VfwCaptureDialog_Source, hwndParent);
}
}
pControl->Run();

   以上讲述了视频捕捉程序创建的一般过程。视频捕捉还有其他问题,比如AV同步、设备的热插拔、DV Camcorder的控制、Analog TV以及Digital TV的支持,还有捕捉后的音视频压缩、音视频合成,或者硬件压缩卡的支持等等。要想编写出专业级的视频捕捉程序,这些问题是不可回避的!
阅读(2861) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~