来自摄像头的可可捕获帧

And*_*rdi 7 macos cocoa video-capture objective-c

我正在实施一个软件来从网络摄像头获取视频.我在Apple Dev中看过MyRecorder示例,它运行正常.

我尝试使用以下代码添加一个按钮从视频拍摄快照:

- (IBAction)addFrame:(id)sender
{
    CVImageBufferRef imageBuffer;
    @synchronized (self) {
        imageBuffer = CVBufferRetain(mCurrentImageBuffer);
    }
    if (imageBuffer) { 
    [ bla bla bla ]     
    }
}
Run Code Online (Sandbox Code Playgroud)

但是mCurrentImageBuffer总是空的.如何从我的网络摄像头获取当前帧并放入mCurrentImageBuffer?

我试过用

(void)captureOutput:(QTCaptureOutput *)captureOutput 
                    didOutputVideoFrame:(CVImageBufferRef)videoFrame 
                    withSampleBuffer:(QTSampleBuffer *)sampleBuffer 
                    fromConnection:(QTCaptureConnection *)connection
{
    CVImageBufferRef imageBufferToRelease;

    CVBufferRetain(videoFrame);

    @synchronized (self) {
        imageBufferToRelease = mCurrentImageBuffer;
        mCurrentImageBuffer = videoFrame;
    }
    CVBufferRelease(imageBufferToRelease);  
} 
Run Code Online (Sandbox Code Playgroud)

但它永远不会被召唤.我怎样才能决定何时调用captureOutput委托方法?任何的想法?

谢谢,安德烈

Bra*_*son 3

您似乎正在尝试使用 QTKit Capture API 从网络摄像头捕获视频。MyRecorder 示例应用程序几乎是您可以使用此 API 制作的功能最简单的视频捕获程序。从您的描述中不清楚,但您需要确保遵循他们的示例,并以与-awakeFromNibMyRecorderController 中的方法相同的方式初始化视频会话。如果不这样做,您将不会捕获任何视频。

就您尝试使用的方法而言,-captureOutput:didOutputVideoFrame:withSampleBuffer:fromConnection:是 的委托方法QTCaptureDecompressedVideoOutput。MyRecorder 示例中不存在此类的实例,因为该示例仅将压缩视频记录到磁盘。要使用它,您需要创建 的实例QTCaptureDecompressedVideoOutput,将其附加到您的QTCaptureSessionusing -addOutput:error:,并将该实例的委托设置为QTCaptureDecompressedVideoOutput您的类。

有关 QTKit 如何处理此类事情的更多信息,您可以查阅QTKit 应用程序编程指南QTKit Capture部分。