从iOS(iPhone/iPad)到远程PC /服务器的实时摄像机视频流

Med*_*edi 45 objective-c rtmp avfoundation video-streaming ios

我一直在stackoverflow和网络上寻找一段时间来解决我的视频流问题.我需要以一种方式将从相机捕获的实时视频(无需高质量)从iOS设备流式传输到远程PC,即iOS设备将视频流发送到服务器/ PC但不是相反的.

在一些谷歌搜索和文档浏览后出现的是,可以使用主要的主要标准/协议:

  • Apple的HTTP直播流媒体(HLS)
  • Adobe的RTMP

同样,我的要求是iPhone/iPad将流式传输视频.从Apple网站上的内容可以看出,HLS将从服务器端的编码角度和iOS侧的解码角度使用.从RTMP开始,大多数允许iOS流媒体的图书馆都有商业许可证和封闭代码,或者要求您通过他们的P2P基础设施(例如angl.tvtokbox.com/opentok/quick-start).从HLS开始,iOS方面似乎没有编码库.

所以我的问题是:

  • 你知道任何SDK/Library最好是开放和免费的,我可以集成来从我的应用程序中流式传输捕获的视频吗?
  • 如果不是,你认为开发一个定制图书馆会是一个冒险的丛林交叉的努力吗?我的猜测是通过AVFoundation捕获相机帧,逐帧压缩它们并通过HTTP发送它们.这听起来疯狂的性能和带宽明智吗?请注意,在这种情况下,我需要一种HLS或RTMP编码器.

我非常感谢你们,亲爱的朋友们.

迈赫迪

jgh*_*jgh 29

我开发了这样一个库,你可以在github.com/jgh-/VideoCore找到它

我正在更新此答案,因为我创建了一个简化的iOS API,可以让您轻松设置Camera/Mic RTMP会话.您可以在https://github.com/jgh-/VideoCore/blob/master/api/iOS/VCSimpleSession.h找到它.

此外,VideoCore现在可以在CocoaPods中使用.

  • 嗨Jamesghurley,我已经完成了你的VideoCore示例iOS项目.你能给我一些关于我们必须做什么来进行HTTP流媒体而不是RTMP的输入.哪种方法更像打开websocked并发送编码或传输MPEG-2流后得到的东西,我们如何从编码的cmsamplebuffers构建MPEG-2流? (2认同)