Kev*_*n K 3 android hardware-acceleration android-ndk stagefright openmax
我正在开展视频会议项目.我们使用软件编解码器对视频帧进行编码和解码,这样可以在较低分辨率(高达320p)下正常工作.我们计划支持我们的应用程序,以获得高达720p的更高分辨率.我开始知道硬件加速可以很好地完成这项工作.
由于硬件编解码器api媒体编解码器可从Jelly Bean开始使用,我已将其用于编码和解码,并且工作正常.但我的应用程序得到2.3的支持.因此,我需要对30帧/秒的H.264帧进行硬件加速视频解码.
在研究中发现了通过修改舞台惊吓框架来使用OMX编解码器的想法.我读过H.264的硬件解码器可以从2.1获得,而编码器是从3.0开始.我已经浏览了本网站提供的许多文章和问题,并确认我可以继续.
我曾在这里阅读过怯场建筑-架构和这里- stagefright它是如何工作的
我在这里阅读OMX编解码器- 使用android-hardware-decoder-with-omxcodec-in-ndk.
我有一个起步问题和一些关于它的实现的混淆.我想有一些关于它的信息.
有人可以给我一个指导方针
谢谢...
最好的例子来描述的整合OMXCodec
在本地层是命令行实用程序stagefright
如可以观察到这里在GingerBread
本身.此示例显示如何OMXCodec
创建a.
有些要点需要注意:
输入OMXCodec
应该建模为a MediaSource
,因此,您应该确保您的应用程序处理此要求.创建MediaSource
基于源的示例可以在record
实用程序文件中DummySource
找到.
解码器的输入即MediaSource
应通过该read
方法提供数据,因此,您的应用程序应为每个read
呼叫提供单独的帧.
可以使用NativeWindow
输出缓冲区分配来创建解码器.在这种情况下,如果您希望从CPU访问缓冲区,您可能应该参考此查询以获取更多详细信息.
归档时间: |
|
查看次数: |
3638 次 |
最近记录: |