And*_*rdi 7 macos cocoa video-capture objective-c
我正在实施一个软件来从网络摄像头获取视频.我在Apple Dev中看过MyRecorder示例,它运行正常.
我尝试使用以下代码添加一个按钮从视频拍摄快照:
- (IBAction)addFrame:(id)sender
{
CVImageBufferRef imageBuffer;
@synchronized (self) {
imageBuffer = CVBufferRetain(mCurrentImageBuffer);
}
if (imageBuffer) {
[ bla bla bla ]
}
}
Run Code Online (Sandbox Code Playgroud)
但是mCurrentImageBuffer总是空的.如何从我的网络摄像头获取当前帧并放入mCurrentImageBuffer?
我试过用
(void)captureOutput:(QTCaptureOutput *)captureOutput
didOutputVideoFrame:(CVImageBufferRef)videoFrame
withSampleBuffer:(QTSampleBuffer *)sampleBuffer
fromConnection:(QTCaptureConnection *)connection
{
CVImageBufferRef imageBufferToRelease;
CVBufferRetain(videoFrame);
@synchronized (self) {
imageBufferToRelease = mCurrentImageBuffer;
mCurrentImageBuffer = videoFrame;
}
CVBufferRelease(imageBufferToRelease);
}
Run Code Online (Sandbox Code Playgroud)
但它永远不会被召唤.我怎样才能决定何时调用captureOutput委托方法?任何的想法?
谢谢,安德烈
您似乎正在尝试使用 QTKit Capture API 从网络摄像头捕获视频。MyRecorder 示例应用程序几乎是您可以使用此 API 制作的功能最简单的视频捕获程序。从您的描述中不清楚,但您需要确保遵循他们的示例,并以与-awakeFromNibMyRecorderController 中的方法相同的方式初始化视频会话。如果不这样做,您将不会捕获任何视频。
就您尝试使用的方法而言,-captureOutput:didOutputVideoFrame:withSampleBuffer:fromConnection:是 的委托方法QTCaptureDecompressedVideoOutput。MyRecorder 示例中不存在此类的实例,因为该示例仅将压缩视频记录到磁盘。要使用它,您需要创建 的实例QTCaptureDecompressedVideoOutput,将其附加到您的QTCaptureSessionusing -addOutput:error:,并将该实例的委托设置为QTCaptureDecompressedVideoOutput您的类。
有关 QTKit 如何处理此类事情的更多信息,您可以查阅QTKit 应用程序编程指南的QTKit Capture部分。
| 归档时间: |
|
| 查看次数: |
8426 次 |
| 最近记录: |