以前的问题已经提出了相同或类似的询问
Web Speech API可以与Web Audio API结合使用吗?
如何从Speech Synthesis API访问音频结果?
将HTML5 SpeechSynthesisUtterance生成的语音记录到文件中
使用W3C Web Speech API生成音频文件
但似乎没有使用创建的变通方法window.speechSynthesis().虽然有一些解决方法使用epeak,meSpeak 如何在Chrome浏览器中创建文本或将文本转换为音频?或向外部服务器发出请求.
window.speechSynthesis()
epeak
meSpeak
如何捕捉和记录的音频输出window.speechSynthesis.speak()调用和返回结果为Blob,ArrayBuffer,AudioBuffer或其他对象类型?
window.speechSynthesis.speak()
Blob
ArrayBuffer
AudioBuffer
javascript audio html5 text-to-speech webspeech-api
audio ×1
html5 ×1
javascript ×1
text-to-speech ×1
webspeech-api ×1