Ant*_*ony 5 video video-streaming webm webrtc web-mediarecorder
我已经构建了一些代码,可以让 MediaRecorder API 捕获音频和视频,然后使用 ondataavailable 函数通过 websockets 将相应的 webm 文件 blob 发送到服务器。然后服务器通过 websockets 将这些 blob 发送到客户端,客户端使用媒体源扩展 API 将视频放在一个缓冲区中。
这很有效,但如果我想在中途启动一个流,我不能只发送最新的 blob,因为 blob 本身无法播放。此外,如果我乱序发送 blob,浏览器通常会抱怨音频编码不匹配。
我真的不太了解视频容器、编解码器等,因为我应该把它拉下来,但我的问题是,我怎样才能将这些 blob 作为独立视频播放?我可以以某种方式使用代码将第一个 blob(可单独播放)中的信息添加到其他 blob 上吗?能够在中途播放流的好方法是什么?我会转码,但似乎需要很长时间,因为我想设置实时(或接近)流式传输。
谢谢!