小编Jon*_*rne的帖子

Web Audio API:如何播放MP3块

因此,我正在尝试Web Audio API使用Node.js和Socket.IO解码和播放流式传输到浏览器的MP3文件块.

我的问题是我唯一的选择是AudioBufferSourceNode为每个接收到的音频数据块创建一个新的,还是可以为所有块创建一个AudioBufferSourceNode,只需将新的音频数据附加到源节点AudioBufferSourceNode属性的末尾?

目前,我正在接收我的MP3块,解码并安排它们进行播放.我已经验证了收到的每个块都是一个"有效的MP3块",并且正在被Web Audio API成功解码.

audioContext = new AudioContext();
startTime = 0;

socket.on('chunk_received', function(chunk) {
    audioContext.decodeAudioData(toArrayBuffer(data.audio), function(buffer) {
        var source = audioContext.createBufferSource();
        source.buffer = buffer;
        source.connect(audioContext.destination);

        source.start(startTime);
        startTime += buffer.duration;
    });
});
Run Code Online (Sandbox Code Playgroud)

任何有关如何使用新音频数据"更新"Web音频API播放的建议或见解将不胜感激.

html javascript audio streaming web-audio-api

20
推荐指数
2
解决办法
9440
查看次数

标签 统计

audio ×1

html ×1

javascript ×1

streaming ×1

web-audio-api ×1