据我所知,在客户端-服务器模型中,gRPC 可以进行双向数据流。我还没有尝试过,但想知道是否可以使用 gRPC 将音频和视频数据从源流式传输到云服务器,然后实时广播到多个客户端?
TLDR:我不推荐通过 gRPC 播放视频。主要是因为它不是为此而设计的,所以这样做需要大量的黑客工作。您可能应该看看 WebRTC +特定的视频编解码器。
\n更多信息如下:
\nbytes image_frame = 1;,但这效率较低,并且肯定会占用不必要的视频空间。可能可以使用视频编码器(例如 H.264)将帧编码到 protobuf 中,然后解码它们以在应用程序中播放。然而,这可能需要大量的黑客/工程工作。此用例不是 gRPC/protobufs 的设计目的,也不常见。如果你一起破解一些东西,请告诉我,我会很好奇。
\n\n\nWebSocket 上接收到的数据进入基于 WebAssembly (WASM) 的解码器。音频被馈送到支持该功能的浏览器中的 AudioWorklet。从那里,使用 WebAudio \xe2\x80\x9cmagic\xe2\x80\x9d 目标节点播放解码的音频。
\n
| 归档时间: |
|
| 查看次数: |
6822 次 |
| 最近记录: |