Ami*_*mit 2 audio webrtc mediastream web-audio-api
我MediaStream从 获得包含音频数据WebRTC。我们称这个流为srcStream。
如果我有我的 HTML
<audio id="audio" controls autoplay></audio>
Run Code Online (Sandbox Code Playgroud)
我跑
audioEl = document.querySelector("#audio")
audioEl.srcObject = srcStream
Run Code Online (Sandbox Code Playgroud)
我可以听到音频,并且可以看到音频元素开始计算秒数。
但是,我得到多个音频流,因此我想做一些更通用的操作,并将所有这些流连接到单个流。如果我跑
audioCtx = new AudioContext()
dst = audioCtx.createMediaStreamDestination()
audioEl.srcObject = dst.stream
src = audioCtx.createMediaStreamSource(srcStream);
src.connect(dst)
Run Code Online (Sandbox Code Playgroud)
音频显示正在播放,但我听不到任何音频播放。
我创建目的地的方式有问题吗?
这是 Chrome 中的一个已知错误。解决方案是将流附加到新的音频对象,即使它未使用
new Audio().srcObject = srcStream;
Run Code Online (Sandbox Code Playgroud)