关于视频捕捉(About Video Capture inDshow)

1. 视频捕捉Graph的构建

一个能够捕捉音频或者视频的graph图都称之为捕捉graph图。捕捉graph图比一般的文件回放graph图要复杂许多,dshow提供了一个CaptureGraph Builder COM组件使得捕捉graph图的生成更加简单。Capture GraphBuilder提供了一个ICaptureGraphBuilder2接口,这个接口提供了一些方法用来构建和控制捕捉graph。

首先创建一个Capture GraphBuilder对象和一个graphmanger对象,然后用filter graph manager作参数,调用ICaptureGraphBuilder2::SetFiltergraph来初始化CaptureGraph Builder。看下面的代码把

HRESULTInitCaptureGraphBuilder(

IGraphBuilder **ppGraph, // Receives thepointer.

ICaptureGraphBuilder2 **ppBuild // Receives thepointer.

)

{

if (!ppGraph || !ppBuild)

{

return E_POINTER;

}

IGraphBuilder *pGraph = NULL;

ICaptureGraphBuilder2 *pBuild =NULL;

// Create the Capture GraphBuilder.

HRESULT hr = CoCreateInstance(CLSID_CaptureGraphBuilder2,NULL,

CLSCTX_INPROC_SERVER,IID_ICaptureGraphBuilder2,(void**)&pGraph);

if(SUCCEEDED(hr))

{

// Create the Filter GraphManager.

hr = CoCreateInstance(CLSID_FilterGraph, 0,CLSCTX_INPROC_SERVER,

IID_IGraphBuilder,(void**)&pGraph);

if(SUCCEEDED(hr))

{

// Initialize the CaptureGraph Builder.

pBuild->SetFiltergraph(pGraph);

// Return both interfacepointers to the caller.

*ppBuild =pBuild;

*ppGraph = pGraph; // Thecaller must release both interfaces.

return S_OK;

}

Else

{

pBuild->Release();

}

}

return hr; //Failed

}

2.     Direcshow中视频捕捉的Filter

Pin的种类

捕捉Filter一般都有两个或多个输出pin,他们输出的媒体类型都一样,比如预览pin和捕捉pin,因此根据媒体类型不能很好的区别这些pin。此时就要根据pin的功能来区别每个pin了,每个pin都有一个GUID,称为pin的种类。

如果想仔细的了解pin的种类,请看后面的相关内容Working with Pin Categories。对于大多数的应用来说,ICaptureGraphBuilder2提供了一些函数可以自动确定pin的种类。
预览pin和捕捉pin

视频捕捉Filter都提供了预览和捕捉的输出pin,预览pin用来将视频流在屏幕上显示,捕捉pin用来将视频流写入文件。

预览pin和输出pin有下面的区别:

1为了保证捕捉pin对视频帧流量,预览pin必要的时候可以停止。

2经过捕捉pin的视频帧都有时间戳,而预览pin的视频流没有时间戳。

预览pin的视频流之所以没有时间戳,原因在于filter图表管理器在视频流里加一个很小的latency,如果捕捉时间被认为就是render时间的话,视频renderFilter就认为视频流有一个小小的延迟,如果此时render filter试图连续播放,就会丢帧。去掉时间戳就保证了视频帧来了就可以播放,不用等待,也不丢桢。

Video Port pin

VideoPort是一个介于视频设备(TV)和视频卡之间的硬件设备。同过Video Port,视频数据可以直接发送到图像卡上,通过硬件的覆盖,视频可以直接在屏幕显示出来。VideoPort就是连接两个设备的。
   使用VideoPort的最大好处是,不用CPU的任何工作,视频流直接写入内存中。如果捕捉设备使用了Video Port,捕捉Filter就用一个videoport pin代替预览pin。

预览pin的种类GUID为PIN_CATEGORY_PREVIEW

捕捉pin的种类GUID为PIN_CATEGORY_CAPTURE

video portpin的种类GUID为PIN_CATEGORY_VIDEOPORT

一个捕捉filter至少有一个Capture pin,另外,它可能有一个预览pin 和一个videoport pin
,或者两者都没有。一些filter有很多的capture pin,和预览pin,每一个pin都代表一种媒体类型,因此一个filter可以有一个视频capture pin,视频预览pin,音频捕捉pin,音频预览pin。

3.     预览视频(PreviewingVideo)

为了创建可以预览视频的graph,可以调用下面的代码

ICaptureGraphBuilder2 *pBuild; // Capture GraphBuilder

// Initialize pBuild (notshown).

IBaseFilter *pCap; // Video capturefilter.

hr =pBuild->RenderStream(&PIN_CATEGORY_PREVIEW,&MEDIATYPE_Video,  pCap, NULL, NULL);

4.     如何捕捉视频流并保存到文件(Capture video toFile)

1)     将视频流保存到AVI文件

AVI Muxfilter接收从capturepin过来的视频流,然后将其打包成AVI流。音频流也可以连接到AVIMux Filter上,这样mux filter就将视频流和视频流合成AVI流。Filewriter将AVI流写入到文件中。

构建graph图

IBaseFilter *pMux;

hr = pBuild->SetOutputFileName(

&MEDIASUBTYPE_Avi,// Specifies AVI for the target file.

L"C:""Example.avi", // Filename.

&pMux, //Receives a pointer to the mux.

NULL); // (Optional) Receivesa pointer to the file sink.

第一个参数表明文件的类型,这里表明是AVI,第二个参数是制定文件的名称。对于AVI文件,SetOutputFileName函数会创建一个AVImux Filter 和一个 File writer Filter,并且将两个filter添加到graph图中,在这个函数中,通过FileWriter Filter 请求IFileSinkFilter接口,然后调用IFileSinkFilter::SetFileName方法,设置文件的名称。然后将两个filter连接起来。第三个参数返回一个指向AVIMux的指针,同时,它也通过第四个参数返回一个IFileSinkFilter参数,如果你不需要这个参数,你可以将这个参数设置成NULL。

然后,你应该调用下面的函数将capturefilter 和AVI Mux连接起来。

hr = pBuild->RenderStream(

&PIN_CATEGORY_CAPTURE,// Pin category.

&MEDIATYPE_Video,// Media type.

pCap, // Capturefilter.

NULL, // Intermediate filter(optional).

pMux); // Mux or file sinkfilter.

// Release the muxfilter.

pMux->Release();

第5个参数就是使用的上面函数返回的pMux指针。

当捕捉音频的时候,媒体类型要设置为MEDIATYPE_Audio。如果你从两个不同的设备捕捉视频和音频,最好将音频设置成主流,avimux filter为了同步音频,会调整视频的播放速度,这样可以防止两个数据流间drift。

为了设置master流,调用IConfigAviMux::SetMasterStream方法,可以采用如下的代码:

IConfigAviMux *pConfigMux =NULL;

hr =pMux->QueryInterface(IID_IConfigAviMux,(void**)&pConfigMux);

if(SUCCEEDED(hr))

{

pConfigMux->SetMasterStream(1);

pConfigMux->Release();

}

SetMasterStream参数的值,指的是数据流的序号,这是由调用RenderStream的次序决定的。例如,如果你调用RenderStream首先用于视频流,然后是音频,那么视频流就是0,音频流就是1。

添加编码filter

IBaseFilter*pEncoder;

// Add it to the filtergraph.

pGraph->AddFilter(pEncoder,L"Encoder);

// Render the stream.

hr =pBuild->RenderStream(

&PIN_CATEGORY_CAPTURE,

&MEDIATYPE_Video,

pCap, pEncoder, pMux);

pEncoder->Release();

2)   将视频流保存成wmv格式的文件

为了将视频流保存成并编码成windows media video(WMV)格式的文件,将capturepin连到WMASF Writer filter。

构建graph图最简单的方法就是将在ICaptureGraphBuilder2::SetOutputFileName方法中指定MEDIASUBTYPE_Asf的filter。如下

IBaseFilter* pASFWriter =0;

hr =pBuild->SetOutputFileName(

&MEDIASUBTYPE_Asf,// Create a Windows Media file.

L"C:""VidCap.wmv", // Filename.

&pASFWriter,// Receives a pointer to the filter.

NULL); // Receives anIFileSinkFilter interface pointer (optional).

参数MEDIASUBTYPE_Asf告诉graphbuilder,要使用wm asfwriter作为文件接收器,于是pbuild 就创建这个filter,将其添加到graph图中,然后调用IFileSinkFilter::SetFileName来设置输出文件的名字。第三个参数用来返回一个ASFwriter指针,第四个参数用来返回文件的指针。

在将任何pin连接到WM ASFWriter之前,一定要对WM ASFWriter进行一下设置。可以通过WMASF Writer的IConfigAsfWriter接口指针来进行设置。

IConfigAsfWriter*pConfig = 0;

hr =pASFWriter->QueryInterface(IID_IConfigAsfWriter,(void**)&pConfig);

if(SUCCEEDED(hr))

{

// Configure the ASF Writerfilter.

pConfig->Release();

}

然后调用ICaptureGraphBuilder2::RenderStream将captureFilter 和 ASF writer连接起来。

hr =pBuild->RenderStream(

&PIN_CATEGORY_CAPTURE,// Capture pin.

&MEDIATYPE_Video,// Video. Use MEDIATYPE_Audio for audio.

pCap, // Pointer to thecapture filter.

0,

pASFWriter);// Pointer to the sink filter (ASF Writer).

3) 保存成自定义的文件格式

如果你想将文件保存成自己的格式,你必须有自己的filewriter。看下面的代码

IBaseFilter *pMux =0;

IFileSinkFilter *pSink =0;

hr =pBuild->SetOutputFileName(

&CLSID_MyCustomMuxFilter,//自己开发的Filter

L"C:""VidCap.avi",&pMux, &pSink);

4) 如何将视频流保存进多个文件

当你将视频流保存进一个文件后,如果你想开始保存第二个文件,这时,应该首先将graph停止,然后再通过IFileSinkFilter::SetFileName改变FileWriter 的文件名称。注意,IFileSinkFilter指针你可以在SetOutputFileName时通过第四个参数返回的。

IBaseFilter*pMux;

IFileSinkFilter*pSink

hr =pBuild->SetOutputFileName(&MEDIASUBTYPE_Avi,L"C:""YourFileName.avi",

&pMux,&pSink);

if(SUCCEEDED(hr))

{

hr =pBuild->RenderStream(&PIN_CATEGORY_CAPTURE,&MEDIATYPE_Video,pCap, NULL,pMux);

if(SUCCEEDED(hr))

{

pControl->Run();

pControl->Stop();

// Change the file name andrun the graph again.

pSink->SetFileName(L"YourFileName02.avi",0);

pControl->Run();

}

pMux->Release();

pSink->Release();

}

5)  组合视频的捕捉和预览

如果想组建一个既可以预览视频,又可以将视频保存成文件的graph,只需要两次调用ICaptureGraphBuilder2::RenderStream即可。

// Render the preview streamto the video renderer.
 hr =pBuild->RenderStream(&PIN_CATEGORY_PREVIEW,&MEDIATYPE_Video,pCap, NULL,NULL);

// Render the capture stream to the mux.

hr =pBuild->RenderStream(&PIN_CATEGORY_CAPTURE,&MEDIATYPE_Video,  pCap, NULL, pMux);

在上面的代码中,graph builder其实隐藏了下面的细节。

1 如果captureFilter既有preview pin也有captruepin,那么RenderStream仅仅将两个pin和renderfilter接起来。

2 如果caprtureFilter只有一个capturepin,那么CaptureGraph Builder就自动采用一个Smart TeeFilter将视频流分流。

5.  如何控制CaptureGraph(Controlling CaptureGraph)

Filter图表管理器可以通过IMediaControl接口控制整个graph的运行,停止和暂停。

但是,当一个graph有捕捉和预览两个数据流的时,如果想单独的控制其中一个数据流,可以通过ICaptureGraphBuilder2::ControlStream

如何单独控制捕捉和预览数据流。

1 控制捕捉视频流

下面的代码,让捕捉数据流在graph开始运行1秒后开始,运行4秒后结束。

// Control the video capturestream.

REFERENCE_TIME rtStart = 1000 0000, rtStop =5000 0000;

const WORD wStartCookie = 1, wStopCookie = 2; //Arbitrary values.

hr =pBuild->ControlStream(

&PIN_CATEGORY_CAPTURE, // Pincategory.

&MEDIATYPE_Video, // Mediatype.

pCap, // Capture filter.

&rtStart,&rtStop, // Start and stop times.

wStartCookie, wStopCookie // Values for thestart and stop events.
   );

pControl->Run();

注:只有调用IMediaControl::Run以后,这个函数才有作用。如果graph正在运行,这个设置立即生效。

ICaptureGraphBuilder2::ControlStream参数说明:

第一个参数表明需要控制的数据流,一般采用的是pin种类GUID,

第二个参数表明了媒体类型。

第三个参数指明了捕捉的filter。如果想要控制graph图中的所有捕捉filter,第二个和第三个参数都要设置成NULL。

第四和第五个参数表明了流开始和结束的时间,这是一个相对于graph开始的时间。

最后的两个参数用来设置当数据流开始和停止时能够得到的事件通知。

对于任何一个运用此方法的数据流,在graph流开始的时候,会发送EC_STREAM_CONTROL_STARTED通知,在流结束的时候,要发送EC_STREAM_CONTROL_STOPPED通知。wStartCookie和wStopCookie是作为第二个参数的。

事件通知处理过程

while (hr =pEvent->GetEvent(&evCode,&param1, &param2, 0),SUCCEEDED(hr))

{

switch(evCode)

{

caseEC_STREAM_CONTROL_STARTED:

// param2 ==wStartCookie

break;

caseEC_STREAM_CONTROL_STOPPED:

// param2 ==wStopCookie

break;

}

pEvent->FreeEventParams(evCode,param1, param2);

}

ControlStream还定义了一些特定的值来表示开始和停止的时间:

MAXLONGLONG 从不开始,只有在graph停止的时候才停止

NULL, 立即开始和停止

例如,下面的代码立即停止捕捉流。

pBuild->ControlStream(&PIN_CATEGORY_CAPTURE,&MEDIATYPE_Video, pCap, 0, 0, //Start and stop times.

wStartCookie, wStopCookie);

2 控制预览视频流

只要给ControlStream第一个参数设置成PIN_CATEGORY_PREVIEW就可以控制预览pin,整个函数的使用和控制捕捉流一样,唯一区别是,在这里没法设置开始和结束时间,因为预览的视频流没有时间戳,因此必须使用NULL或者MAXLONGLONG。

// Use NULL to start the previewstream:

pBuild->ControlStream(&PIN_CATEGORY_PREVIEW,&MEDIATYPE_Video, pCap, NULL, //Start now.

0, // (Don'tcare.)

wStartCookie,wStopCookie);

//Use MAXLONGLONG to stop thepreview stream:

pBuild->ControlStream(&PIN_CATEGORY_PREVIEW,&MEDIATYPE_Video, pCap, 0, //(Don't care.)

MAXLONGLONG, // Stopnow.

wStartCookie,wStopCookie);

3 关于数据流的控制

Pin的缺省行为是传递sample。

例如,如果对 PIN_CATEGORY_CAPTURE 使用了ControlStream,但对 PIN_CATEGORY_PREVIEW 没有使用该函数,当rungraph的时候,preview 流会立即运行起来,而capture 流则要等到设置的时间运行。

6.      如何配置一个视频捕捉设备

1、显示VFW驱动的视频设备对话框

如果视频捕捉设备采用的仍然是VFW方式的驱动程序,则必须支持下面三个对话框,用来设置视频设备。

  • VideoSource

用来选择视频输入设备并且调整设备的设置,比如亮度和对比度。

  • VideoFormat

用来设置帧的大小和位

  • VideoDisplay

用来设置视频的显示参数

为了显示上面的三个对话框,你可以dothe following

1)停止graph。

2)向捕捉filter请求IAMVfwCaptureDialogs接口,如果成功,表明设备支持VFW驱动。

3)调用IAMVfwCaptureDialogs::HasDialog来检查驱动程序是否支持你请求的对话框,如果支持,返回S_OK,否则返回S_FALSE。注意不要用SUCCEDED宏。

4)如果驱动支持该对话框,调用IAMVfwCaptureDialogs::ShowDialog显示该对话框。

5)重新运行graph

代码如下

pControl->Stop();// Stop the graph.

// Query the capture filter forthe IAMVfwCaptureDialogsinterface. IAMVfwCaptureDialogs *pVfw =0;

hr =pCap->QueryInterface(IID_IAMVfwCaptureDialogs,(void**)&pVfw);

if(SUCCEEDED(hr))

{

// Check if the device supportsthis dialog box.

if (S_OK ==pVfw->HasDialog(VfwCaptureDialog_Source))

{

// Show the dialogbox.

hr =pVfw->ShowDialog(VfwCaptureDialog_Source,hwndParent);

}

}

pControl->Run();

2、调整视频的质量

WDM驱动的设备支持一些属性可以用来调整视频的质量,比如亮度,对比度,饱和度,等要向调整视频的质量,dothe following

1)从捕捉filter上请求IAMVideoProcAmp接口

2)对于需要调整的任何一个属性,调用IAMVideoProcAmp::GetRange可以返回这个属性赋值的范围,缺省值,最小的增量值。IAMVideoProcAmp::Get返回当前正在使用的值。VideoProcAmpProperty枚举每个属性定义的标志。

3)调用IAMVideoProcAmp::Set来设置这个属性值。设置属性的时候,不用停止graph。

看看下面的代码是如何调整视频的质量的

HWND hTrackbar; // Handle to the trackbarcontrol.

// Initialize hTrackbar (notshown).

// Query the capture filter for theIAMVideoProcAmp interface.

IAMVideoProcAmp *pProcAmp =0;

hr =pCap->QueryInterface(IID_IAMVideoProcAmp,(void**)&pProcAmp);

if(FAILED(hr))

{

// The device does not supportIAMVideoProcAmp, so disable the control.

EnableWindow(hTrackbar,FALSE);

}

Else

{

long Min, Max, Step, Default,Flags, Val;

// Get therange and default value.

hr =m_pProcAmp->GetRange(VideoProcAmp_Brightness,&Min, &Max,&Step,

&Default,&Flags);

if(SUCCEEDED(hr))

{

// Get the currentvalue.

hr =m_pProcAmp->Get(VideoProcAmp_Brightness,&Val, &Flags);

}

if(SUCCEEDED(hr))

{

// Set the trackbar range andposition.

SendMessage(hTrackbar,TBM_SETRANGE, TRUE, MAKELONG(Min, Max));

SendMessage(hTrackbar,TBM_SETPOS, TRUE, Val);

EnableWindow(hTrackbar,TRUE);

}

Else

{

// This property is notsupported, so disable the control.

EnableWindow(hTrackbar,FALSE);

}

}

3、调整视频输出格式

我们知道视频流可以有多种输出格式,一个设备可以支持16-bitRGB, 32-bit RGB, and YUYV,在每一种格式下,设备还可以调整视频帧的大小。

在WDM驱动设备上,IAMStreamConfig 接口用来报告设备输出视频的格式的,VFW设备,可以采用对话框的方式来设置,参见前面的内容。

捕捉Filter的捕捉pin和预览pin都支持IAMStreamConfig 接口,可以通过ICaptureGraphBuilder2::FindInterface获得IAMStreamConfig接口。

IAMStreamConfig *pConfig =NULL;

hr =pBuild->FindInterface(

&PIN_CATEGORY_PREVIEW,// Preview pin.

0, // Any mediatype.

pCap, // Pointer to the capturefilter.

IID_IAMStreamConfig,(void**)&pConfig

);

设备还支持一系列的媒体类型,对于每一个媒体类型,设备都要支持一系列的属性,比如,帧的大小,图像缩放,帧率范围等。

通过IAMStreamConfig::GetNumberOfCapabilities获得设备所支持的媒体类型的数量。这个方法返回两个值,一个是媒体类型的数量,二是属性所需结构的大小。

这个结构的大小很重要,因为这个方法是用于视频和音频的,视频采用的是VIDEO_STREAM_CONFIG_CAPS结构,音频用AUDIO_STREAM_CONFIG_CAPS结构。

通过函数IAMStreamConfig::GetStreamCaps来枚举媒体类型,要给这个函数传递一个序号作为参数,这个函数返回媒体类型和相应的属性结构体。

int iCount = 0, iSize =0;

hr =pConfig->GetNumberOfCapabilities(&iCount,&iSize);

// Check the size to make sure we pass in thecorrect structure.

if (iSize ==sizeof(VIDEO_STREAM_CONFIG_CAPS)

{

// Use the video capabilitiesstructure.

for (int iFormat = 0; iFormat< iCount; iFormat++)

{

VIDEO_STREAM_CONFIG_CAPSscc;

AM_MEDIA_TYPE*pmtConfig;

hr =pConfig->GetStreamCaps(iFormat,&pmtConfig,(BYTE*)&scc);

if(SUCCEEDED(hr))

{

// Delete the media type whenyou are done.

hr =pConfig->SetFormat(pmtConfig);//重新设置视频格式

DeleteMediaType(pmtConfig);

}

}

可以调用IAMStreamConfig::SetFormat设置新的媒体类型

hr =pConfig->SetFormat(pmtConfig);

如果pin没有连接,当连接的时候就试图用新的格式,如果pin已经在连接了,它就会用的新的媒体格式重新连接。在任何一种情况下,下游的filter都有可能拒绝新的媒体格式。

在SetFormat前你可以修改VIDEO_STREAM_CONFIG_CAPS结构来重新设置媒体类型。

例如:

如果GetStreamCaps返回的是24-bitRGB format,帧的大小是320 x240 像素,你可以通过检查媒体类型的majortype,subtpye,和format等值

if ((pmtConfig.majortype ==MEDIATYPE_Video)&&

(pmtConfig.subtype ==MEDIASUBTYPE_RGB24)&&

(pmtConfig.formattype ==FORMAT_VideoInfo)&&

(pmtConfig.cbFormat>= sizeof (VIDEOINFOHEADER))&&

(pmtConfig.pbFormat !=NULL))

{

VIDEOINFOHEADER *pVih =(VIDEOINFOHEADER*)pmtConfig.pbFormat;

// pVih contains the detailedformat information.

LONG lWidth =pVih->bmiHeader.biWidth;

LONG lHeight =pVih->bmiHeader.biHeight;

}

VIDEO_STREAM_CONFIG_CAPS结构里包含了该媒体类型的视频长度和宽度的最大值和最小值,还有递增的幅度值,就是每次调整视频size的幅度,例如,设备可能返回如下的值

MinOutputSize: 160 x 120

MaxOutputSize: 320 x 240

OutputGranularityX: 8 pixels (horizontal stepsize)

OutputGranularityY: 8 pixels (vertical stepsize)

这样你可以在(160, 168, 176, ... 304, 312,320) 范围内设置宽度,在 (120, 128,136, ... 104, 112, 120).设置高度值,

如果想设置新的值,直接修改在GetStreamCaps函数中返回的值即可,

pVih->bmiHeader.biWidth= 160;

pVih->bmiHeader.biHeight= 120;

pVih->bmiHeader.biSizeImage= DIBSIZE(pVih->bmiHeader);

然后将媒体类型传递给SetFormat函数,就可修改视频格式了。

7.      将设备从系统中移走时的事件通知(Deviceremove Notify)

如果用户将一个graph正在使用的即插即用型的设备从系统中去掉,filter图表管理器就会发送一个EC_DEVICE_LOST事件通知,如果该设备又可以使用了,filter图表管理器就发送另外的一个EC_DEVICE_LOST通知,但是先前组建的捕捉filtergraph图就没法用了,用户必须重新组建graph图。

当系统中有新的设备添加时,dshow是不会发送任何通知的,所以,应用程序如果想要知道系统中何时添加新的设备,应用程序可以监控WM_DEVICECHANGE消息。

8.      从静止图像pin中捕捉图片

有些照相机,摄像头除了可以捕获视频流以外还可以捕获单张的,静止的图片。通常,静止的图片的质量要比流的质量要高。摄像头一般都一个按钮来触发,或者是支持软件触发。支持输出静态图片的摄像头一般都要提供一个静态图片pin,这个pin的种类是PIN_CATEGORY_STILL。

从设备中获取静态图片,我们一般推荐使用windowsImage Acquisition (WIA) APIs。当然,你也可以用dshow来获取图片。

在graph运行的时候利用IAMVideoControl::SetMode来触发静态的pin。代码如下

pControl->Run();// Run the graph.

IAMVideoControl*pAMVidControl = NULL;

hr= pCap->QueryInterface(IID_IAMVideoControl,(void**)&pAMVidControl);

if(SUCCEEDED(hr))

{

//Find the still pin.

IPin*pPin = 0;

hr= pBuild->FindPin(pCap, PINDIR_OUTPUT,&PIN_CATEGORY_STILL, 0, FALSE, 0,&pPin);

if(SUCCEEDED(hr))

{

hr= pAMVidControl->SetMode(pPin,VideoControlFlag_Trigger);

pPin->Release();

}

pAMVidControl->Release();

}

首先向captureFilter 请求IAMVideoContol,如果支持该接口,就调用ICaptureGraphBuilder2::FindPin请求指向静止pin 的指针,然后调用pin的put_Mode方法。

根据不同的摄像头,你可能静态pin连接前要render 该pin。

捕捉静态图片常用的filter是Sample Grabberfilter,SampleGrabber使用了一个用户定义的回调函数来处理图片。关于这个filter的详细用法,参见Usingthe Sample Grabber.。

下面的例子假设静态pin传递的是没有压缩的RGB图片。首先定义一个类,从ISampleGrabberCB继承。

//Class to hold the callback function for the Sample Grabberfilter. class SampleGrabberCallback : publicISampleGrabberCB

{

//Implementation is described later.

}

// Global instance of theclass.

SampleGrabberCallbackg_StillCapCB;

然后将捕捉filter的静态pin连接到SampleGrabber,将SampleGrabber连接到Null Rendererfilter。NullRenderer仅仅是将接收到的sample丢弃掉。实际的工作都是在回调函数里进行,连接NullRenderer 仅仅是为了给SampleGrabber's 输出pin上连接点东西。具体见下面的代码

//Add the Sample Grabber filter to thegraph.

IBaseFilter*pSG_Filter;

hr= CoCreateInstance(CLSID_SampleGrabber, NULL,CLSCTX_INPROC_SERVER,

IID_IBaseFilter,(void**)&pSG_Filter);

hr= pGraph->AddFilter(pSG_Filter,L"SampleGrab");

// Add the Null Renderer filter to thegraph.

IBaseFilter *pNull;

hr = CoCreateInstance(CLSID_NullRendere, NULL,CLSCTX_INPROC_SERVER, IID_IBaseFilter,(void**)&pNull);

hr = pGraph->AddFilter(pSG_Filter,L"NullRender");

然后通过RenderStream将stillpin ,samplegrabber ,nullRenderer连接起来

hr= pBuild->RenderStream(

&PIN_CATEGORY_STILL,// Connect this pin ...

&MEDIATYPE_Video,// with this media type ...

pCap,// on this filter ...

pSG_Filter,// to the Sample Grabber ...

pNull);// ... and finally to the Null Renderer.

然后调用ISampleGrabber指针,来通过这个指针可以分配内存。

//Configure the Sample Grabber.

ISampleGrabber*pSG;

hr= pSG_Filter->QueryInterface(IID_ISampleGrabber,(void**)&pSG);

pSG->SetOneShot(FALSE);

pSG->SetBufferSamples(TRUE);

设置你的回调对象

pSG->SetCallback(&g_StillCapCB,0); // 0 = Use the SampleCBcallback  method

获取静态pin和samplegrabber之间连接所用的媒体类型

//Store the media type for later use.

AM_MEDIA_TYPEg_StillMediaType;

hr=pSG->GetConnectedMediaType(&g_StillMediaType);

pSG->Release();

媒体类型包含一个BITMAPINFOHEADER结构来定义图片的格式,在程序退出前一定要释放媒体类型

//On exit, remember to release the media type.

FreeMediaType(g_StillMediaType);

看看下面的回调类吧。这个类从ISampleGrabber接口派生,但是它没有保持引用计数,因为应用程序在堆上创建这个对象,在整个graph的生存周期它都存在。

所有的工作都在BufferCB函数里完成,当有一个新的sample到来的时候,这个函数就会被sampleGrabber调用到。在下面的例子里,bitmap被写入到一个文件中

class SampleGrabberCallback : publicISampleGrabberCB

{

public:

// Fake referancecounting.

STDMETHODIMP_(ULONG) AddRef() {return 1; }

STDMETHODIMP_(ULONG) Release(){ return 2; }

STDMETHODIMPQueryInterface(REFIID riid, void **ppvObject)

{

if (NULL == ppvObject) returnE_POINTER;

if (riid ==__uuidof(IUnknown))

{

*ppvObject =static_cast<IUnknown*>(this);

return S_OK;

}

if (riid ==__uuidof(ISampleGrabberCB))

{

*ppvObject =static_cast<ISampleGrabberCB*>(this);

return S_OK;

}

returnE_NOTIMPL;

}

STDMETHODIMP SampleCB(doubleTime, IMediaSample *pSample)

{

returnE_NOTIMPL;

}

STDMETHODIMP BufferCB(doubleTime, BYTE *pBuffer, long BufferLen)

{

if ((g_StillMediaType.majortype!= MEDIATYPE_Video) ||

(g_StillMediaType.formattype !=FORMAT_VideoInfo) ||

(g_StillMediaType.cbFormat< sizeof(VIDEOINFOHEADER)) ||

(g_StillMediaType.pbFormat ==NULL))

{

returnVFW_E_INVALIDMEDIATYPE;

}

HANDLE hf =CreateFile("C:""Example.bmp", GENERIC_WRITE,

FILE_SHARE_WRITE, NULL,CREATE_ALWAYS, 0, NULL);

if (hf ==INVALID_HANDLE_VALUE)

{

returnE_FAIL;

}

long cbBitmapInfoSize =g_StillMediaType.cbFormat - SIZE_PREHEADER;

VIDEOINFOHEADER *pVideoHeader =(VIDEOINFOHEADER*)g_StillMediaType.pbFormat;

BITMAPFILEHEADERbfh;

ZeroMemory(&bfh,sizeof(bfh));

bfh.bfType = 'MB'; // Little-endian for"MB".

bfh.bfSize = sizeof( bfh ) + BufferLen +cbBitmapInfoSize;

bfh.bfOffBits = sizeof( BITMAPFILEHEADER ) +cbBitmapInfoSize;

// Write the file header.

DWORD dwWritten = 0;

WriteFile( hf, &bfh, sizeof( bfh), &dwWritten, NULL );

WriteFile(hf, HEADER(pVideoHeader),cbBitmapInfoSize, &dwWritten,NULL);

WriteFile( hf, pBuffer, BufferLen,&dwWritten, NULL );

CloseHandle( hf );

return S_OK;

}

};

Direcshow之视频捕捉相关推荐

  1. 用VC++ 6.0实现视频捕捉

    用VC++ 6.0实现视频捕捉 发布: 2007-7-04 20:47 | 作者: admin | 来源: 网友评论 | 查看: 151次 | 进入软件测试论坛讨论 领测软件测试网 刘力天 方 兰 本 ...

  2. 视频捕捉全教程(vc+vfw)

    视频捕捉全教程(vc+vfw) 目 录 一. 视频捕获快速入门 二.基本的捕获设置 1.设置捕获速度: 2.设置终止捕获 3.捕获的时间限制 三.关于捕获窗口 1.创建一个AVICAP捕获窗口 2.将 ...

  3. 关于 web cam 使用自家的摄像头实现 视频捕捉技术 高级篇

    网络上一大堆的视频捕捉代码,比如: 代码 public   class  WebCameraEngine     {          //   showVideo  calls         [D ...

  4. DirectShow 09 - 音视频捕捉

    音频捕捉: Audio Capture Filter 如果驱动支持WaveInXX函数族,则使用SDK WaveInXX 每个声卡都可以用filter来访问 每个输入设备可以作为一个Pin  声卡的输 ...

  5. Directshow 视频捕捉入门篇 二

    下面的代码来结束如何选择一个视频捕捉设备,就是我们平常说的摄像头 选择一个视频捕捉设备(Select capture device) 如何选择一个视频捕捉设备,可以采用系统设备枚举,详细资料参见Usi ...

  6. [转]视频捕捉全教程(vc+vfw)

    目 录 一. 视频捕获快速入门 二.基本的捕获设置 1.设置捕获速度: 2.设置终止捕获 3.捕获的时间限制 三.关于捕获窗口 1.创建一个AVICAP捕获窗口 2.将一个捕获窗口连接至捕获设备 3. ...

  7. 视频捕捉全教程(MFC+vfw)

    视频捕捉全教程(vc+vfw) 目 录 一. 视频捕获快速入门 二.基本的捕获设置 1.设置捕获速度: 2.设置终止捕获 3.捕获的时间限制 三.关于捕获窗口 1.创建一个AVICAP捕获窗口 2.将 ...

  8. DirectShow编程实现摄像头视频捕捉

    前言 DirectShow是微软公司提供的一套在Windows平台上进行流媒体处理的开发包,与DirectX开发包一起发布. DirectShow为多媒体流的捕捉和回放提供了强有力的支持.用Direc ...

  9. Visual C++编程实现摄像头视频捕捉

    摘要:本文主要讲述用Directshow进行视频捕捉(捕捉静态图像)的编程思路,并提供针对摄像头编程的一个视频捕捉类CcaptureVideo和一个示例. 前言 DirectShow是微软公司提供的一 ...

  10. vfw视频捕捉显示黑屏解决办法

    最近做一个项目要用到视频捕捉,所以使用vfw进行win32下的开发.使用笔记本运行程序,运行时笔记本摄像头可以正常亮起,但是捕捉区域是黑色的.把程序发到同学电脑上可以正常显示图像,发现那就是电脑的设置 ...

最新文章

  1. 《Docker技术入门与实战》——2.4 本章小结
  2. Linux学习记录-----《快乐的Linux命令行》.
  3. softmax实现cifar10分类
  4. Android中Messenger的使用
  5. Class.forName()和ClassLoader.getSystemClassLoader().loadClass()区别
  6. [转帖]Mootools源码分析-02 -- Utils
  7. 此加载项为此计算机的所有用户安装_MDI Jade 6.5软件安装教程
  8. abaqus分析用户手册单元卷_ABAQUS与你我的约定
  9. matlab给图像加云,matlab怎么给图像加雾
  10. J2EE 读取资源文件properties的三种方式
  11. fme坐标转换器_利用FME做坐标转换
  12. 网站怎么做SEO优化操作?
  13. 重返设计模式--命令模式
  14. SAP无法下载excel
  15. A Surface Defect Detection Method Based on Positive Samples
  16. 公平的席位分配MATLAB编程(Q值法)
  17. 什么是大数据?大数据又有什么用处?
  18. node-exporter安装
  19. 你知道有哪些用于文件同步的方法?
  20. DL4J中文文档/调优与训练/可视化

热门文章

  1. 【科研绘图第一期】六方蜂窝状分子绘图
  2. 各国程序员薪资水平,最高都知道、垫底想不到...
  3. 广发银行薪资待遇JAVA_广发银行薪资待遇如何?
  4. trajan 塔杨算法 求割点,割边
  5. 驱动电路设计(光耦,达林顿管)
  6. vscode插件开发流程
  7. cf服务器显示空白,cf空白名(cf显示空白的生僻字)
  8. c语言程序用if循环,if语句的用法循环语句
  9. Python的猜平均数一半游戏
  10. 互联网晚报 | 11月18日 星期四 | 看点直播将于11月30日停止服务;B站月活用户达2.67亿;高通宣布进军汽车领域...