我想将流式录制的音频从浏览器直播到服务器并进行播放.服务器最终将成为播放这些音频流的嵌入式设备.
到目前为止,我已成功录制音频并将其编码为WAVE文件,并使用网络音频API在浏览器上播放,并按照本教程进行操作.
现在我有一个.WAV编码的blob流.我试图找到使用web套接字连接将这些流传输到nodejs后端并使用npm模块播放它们的方法.但我没有运气.
有谁知道我应该遵循的任何资源或模块?也许我应该尝试不同的方法?由于在浏览器上录制,因此需要在服务器上相对快速地播放音频.
我可以getUserMedia()在浏览器中使用录制视频。但是,我还没有找到将视频从浏览器提交(录制)或流式传输(实时)到服务器的便捷方法。
只有我发现的是将视频渲染到画布,然后通过数据 uri 提交或流式传输渲染图像。(这是无效的。)
有没有更好的办法?(例如,直接流式传输二进制数据或将它们存储在文件中,然后发送此文件。)
更新:我发现了类似的老问题:Stream getUserMedia to an Icecast server?