自Android API 12起,SDK中支持RTP,其中包括RtpStream作为基类,以及AudioStream,AudioCodec和AudioGroup.但是,没有文档,示例或教程可帮助我使用这些特定的API从设备的麦克风获取输入,并将其输出到RTP流.
我在哪里指定使用麦克风作为音源,而不是使用扬声器?它是否执行任何RTCP?我可以扩展RtpStream基类来创建我自己的VideoStream类(理想情况下我也想将它们用于视频流)吗?
有关这些新(ish)API的任何帮助吗?
小智 2
不幸的是,这些 API 是执行实际工作的本机代码的最薄的必要包装。这意味着它们不能在 java 中扩展,并且要在 C++ 中扩展它们,我相信您必须有一个自定义的 Android 版本。
据我所知,AudioGroup 实际上无法设置为不输出声音。
我不相信它有 RTCP,但我对它的使用不涉及 RTCP,所以我不知道。
我的建议是,如果您希望能够扩展功能或拥有更大的灵活性,那么您应该找到某人编写或移植到 Android 的 C 或 C++ 本机库并使用它,这应该允许您控制它的音频使用并添加视频流和其他此类扩展。
| 归档时间: |
|
| 查看次数: |
4405 次 |
| 最近记录: |