是否有可能并且支持使用iOS硬件加速的h.264解码API来解码本地(非流式)视频文件,然后在其上组合其他对象?
我想创建一个涉及在视频前面绘制图形对象的应用程序,并使用回放计时器来同步我在顶部绘制的内容,以及在视频上播放的内容.然后,根据用户的操作,更改我在顶部绘制的内容(但不是视频)
来自Android的DirectX,OpenGL和OpenGL ES,我想象的是将视频渲染为纹理,并使用该纹理绘制全屏四边形,然后使用其他精灵来绘制其余的对象; 或者也许在渲染器之前写一个中间过滤器,这样我就可以操纵各个输出帧并绘制我的东西; 或者可以在视频顶部绘制2D图层.
似乎AV基金会或者Core Media 可以帮助我做我正在做的事情,但在我深入研究细节之前,我想知道是否有可能做我想做的事情,以及我的主要内容是什么?解决问题的途径.
请不要"这对你来说太先进,先试试你好世界"的答案.我知道我的东西,只是想知道我想做什么是可能的(最重要的是,支持,所以应用程序不会最终被拒绝),在我自己研究细节之前.
编辑:
我不熟悉iOS开发,但专业的Android版DirectX,OpenGL和OpenGL ES.我正在考虑制作我目前拥有的Android应用程序的iOS版本,我只是想知道这是否可行.如果是这样,我有足够的时间从头开始iOS开发,直到做我想做的事情.如果不可能,那么我现在不会花时间研究整个平台.
因此,这是一个技术可行性问题.我不是要求代码.我正在寻找类型的答案"是的,你可以做到这一点.只需使用A和B,使用C渲染到D并用E绘制你的东西",或者"不,你不能.硬件加速解码是不适用于第三方应用程序"(这是朋友告诉我的).就这样,我会在路上.
我已经阅读了ios技术概述第32页中的视频技术概述.它几乎说我可以使用Media Player获得最简单的播放功能(不是我想要的),UIKit用于嵌入视频,对嵌入有更多的控制,但不是实际播放(不是我的'正在寻找),AVFoundation可以更好地控制播放(也许我需要的,但我在网上找到的大部分资源都是关于如何使用相机),或者是Core Media对视频进行全面的低级控制(可能就是我需要,但记录极差,甚至比AVFoundation更缺乏回放资源.
我担心我可能会在接下来的六个月里全身心地学习iOS编程,但最终却发现相关的API不适用于第三方开发人员,而我想做的事情是iTunes商店部署是不可接受的.这是我的朋友告诉我的,但我似乎无法在应用程序开发指南中找到任何相关内容.因此,我来到这里是为了询问那些在这方面有更多经验的人,不管我想做什么都是可能的.不再.
我认为这是一个有效的高级问题,可以被误解为我不做我的作业-plz-give-me-teh-codez问题.如果我在这里的判断是错误的,请随意删除,或者将这个问题贬低到你心中的蔑视.