Rob*_*mos 5 flash video-processing mashup video-streaming webrtc
我以前一直在研究这个,但没有找到任何可靠的线索.
以前,我有一个带有视频聊天功能的Wowza/Flash应用程序(假设有4或8个视频/音频流),并希望将服务器端流组合成一个视频/音频流,以便发送到实时Youtube频道或者说像AWS CloudFront这样的CDN.另外,我想知道如何在具有中央服务器的WebRTC中实现这一点.
我发现了一些项目,如jMixer和一些有用的关键词,如"视觉混音器",以帮助我的搜索,但寻找任何以前的经验或新的想法.现在包括WebRTC我正在看到"多点控制单元"来集中流和"mashup".
另一种选择是使用商业视频解码/编码库自己构建类似于原始帧,将帧拼接在一起,然后对其进行编码.我最初沿着这条路走下去,但暂停了项目.
什么是一些想法,关键词,现有软件(首选开源软件),甚至是采用这些实时流并将它们实时组合成一个文章的文章?或者自己编码就像我是必需的路线?
不是寻找编码解决方案,而是寻求适用于所有用户的更通用的(时间和资源,而不是计算)解决方案.
谢谢!
| 归档时间: |
|
| 查看次数: |
687 次 |
| 最近记录: |