我一直在尝试使用libstagefright来解码h264压缩帧.我没有MP4文件,而是想逐帧解码.我一直在从链接中探索样本.此示例使用ffmpeg来解析mp4文件.并使用ffmpeg的avcodeccontext设置并查找所需的元数据.现在我想设置kKeyAVCC,kKeyWidth,kKeyHeight,kKeyIsSyncFrame和kKeyTime.我不清楚这些参数中的每一个.所以,我想知道的是,是否需要设置所有这些参数?这些参数的目的是什么,以及为逐帧解码的元数据设置什么.当我没有设置kKeyTime时,omxcodec在读取mediabuffer时崩溃.如果我在读取操作上取得成功,我没有得到我在MediaBuffer的派生读取方法中设置的元数据值.我得到了帧的视频尺寸和错误代码INFO_FORMAT_CHANGED.
我想测试ViBe算法的背景减法.目前我正在使用opencv库.我在opencv/samples/gpu/bgfg_segm.cpp和bgfg_vibe.cpp文件中找到了一个示例实现.这些文件在gpu模块下.现在我有一个没有GPU的系统.当我尝试运行代码时,它会在第一帧的初始化时崩溃.谁能告诉我如何解决这个问题?
提前致谢.
我想从timeval类型的变量中检索以毫秒为单位的值.以下是我的尝试:
timeval* time;
long int millis = (time->tv_sec * 1000) + (time->tv_usec / 1000);
printf("Seconds : %ld, Millis : %ld", time->tv_sec, millis);
Output => Seconds : 1378441469, Millis : -243032358
Run Code Online (Sandbox Code Playgroud)
问题是我得到毫秒的毫秒值.这个片段有什么问题?
-(void)showLog
{
NSMutableString* msgStr = nil;
msgStr = [NSMutableString stringWithFormat:@"%s","Log :"];
//show Log
[msgStr release];
}
Run Code Online (Sandbox Code Playgroud)
这是我的代码.我经常从一个线程调用这个函数.我已经禁用了ARC,我正在使用xcode 5中的iOS 7测试iPad Mini,在XCode 5中,它显示了连续的内存分配.即使我发布了这个,msgStr为什么它会显示内存分配的增量?
任何帮助或建议都会很棒.
android ×1
android-ndk ×1
blobs ×1
gcc ×1
h.264 ×1
objective-c ×1
opencv ×1
stagefright ×1
timeval ×1