vin*_*nni 4 google-api stream node.js getusermedia
我刚刚开始使用 node.js,并尝试将浏览器生成的麦克风流与在我的节点服务器和包上运行的 google 语音 api 连接起来microphone-stream
。
我成功地用 browserify 打包了必要的模块,但现在不知道如何继续。我也让麦克风流正常工作node server
(如此处所述:音频流上的流式语音识别)。
如何传输音频流?我在一期中读到有关使用 websockets 的内容,但并没有真正理解这对我来说是否是正确的方法。还是RPC?
现在我在服务器上使用这些包:
const express = require('express');
const path = require('path');
const bodyParser = require('body-parser');
const fs = require('fs');
const record = require('node-record-lpcm16');
const google = require('googleapis');
const getUserMedia = require('get-user-media-promise');
const MicrophoneStream = require('microphone-stream');
Run Code Online (Sandbox Code Playgroud)
这是我第一次使用节点/服务器,所以希望这个问题不是太天真。谢谢!:)
我建立了一个游乐场来解决这个任务。它不使用任何以前的插件(节点记录16/麦克风流/...),而是通过socket.io将16位音频流发送到节点服务器。
https://github.com/vin-ni/Google-Cloud-Speech-Node-Socket-Playground
归档时间: |
|
查看次数: |
2116 次 |
最近记录: |