我将Firebase与iOS客户端应用程序配合使用,并且需要从Google Cloud Storage流式传输音频文件。我知道Android SDK中存在类:的文件流支持StreamDownloadTask,但是在iOS SDK中找不到等效的支持。
createReadStreamGCS API函数并将其通过管道传递给客户端吗?或者,还有更好的方法?任何关于从GCS音频文件创建流媒体到iOS应用的最佳方式的建议,将不胜感激!
我有一个来自 http 响应的音频数据流。我使用URLSessionDataDelegate方法接收字节数据包:
urlSession(_ session: URLSession, dataTask: URLSessionDataTask, didReceive data: Data)
在使用AVAudioPlayer对象及其initWithData:初始化方法将所有数据包附加到单个 Data 对象后,我成功播放了音频。
我真正想做的是在数据仍在传入的同时开始音频播放 -有效地流式传输音频。对于这个用例,我还没有看到任何看起来很优雅的答案。
我见过的选项是:
我将如何从传入的数据包中实现音频流播放?
我需要在 docker 容器(使用 docker-compose 创建)中运行的 Node.js 应用程序中使用 ffmpeg。我对 Docker 很陌生,想知道如何在创建映像时命令 Docker 安装 ffmpeg。
文件
FROM node:carbon
WORKDIR /usr/src/app
# where available (npm@5+)
COPY package*.json ./
RUN npm install -g nodemon
RUN npm install --only=production
COPY . .
EXPOSE 3000
CMD [ "npm", "start" ]
Run Code Online (Sandbox Code Playgroud)
包.json:
{
"name": "radcast-apis",
"version": "0.0.1",
"private": true,
"scripts": {
"start": "node ./bin/www",
"dev": "nodemon --inspect-brk=0.0.0.0:5858 ./bin/www"
},
"dependencies": {
"audioconcat": "^0.1.3",
"cookie-parser": "~1.4.3",
"debug": "~2.6.9",
"express": "~4.16.0",
"firebase-admin": "^5.12.1",
"http-errors": "~1.6.2",
"jade": "~1.11.0",
"morgan": "~1.9.0" …Run Code Online (Sandbox Code Playgroud)