在过去的几天里,我一直在解决这个问题.我正在尝试使用live555(http://www.live555.com/),一个C/C++流媒体服务器,作为Java Android Studio项目中的库.我已经能够使用ndk-build来创建一组.so文件,但是我找不到任何关于如何在我的Java应用程序中使用该库的文档.这是我的设置:
到目前为止我所采取的步骤:
在jni上面的文件夹中,创建Android.mk和Application.mk文件.该Application.mk文件包含:
APP_OPTM := release
APP_ABI := armeabi armeabi-v7a
APP_PLATFORM := …Run Code Online (Sandbox Code Playgroud)我正在尝试创建一个Android应用程序,该应用程序利用libjingle WebRTC原生Android库,使用WebRTC将用户Android桌面投影到对等方.为此,我已成功使用pristine.io libjingle镜像重新创建Android apprtc示例应用程序:
compile 'io.pristine:libjingle:10531@aar'
Run Code Online (Sandbox Code Playgroud)
在我的应用程序build.gradle文件中.apprtc示例适用于https://apprtc.appspot.com/演示网站.我还创建了一个单独的应用程序,使用MediaProjectionAndroid API 21中引入的库,按照此处发布的示例,将用户的屏幕记录为H.264编码的mp4文件.
现在,我想将这两个想法结合到一个应用程序中,该应用程序利用来自MediaProjection和MediaRecorder/或至少H.264编码文件的原始流作为WebRTC对等连接的视频/音频流.这甚至可能吗?PeerConnection.addStreamlibjingle中的方法需要一个实例MediaStream.如何MediaStream从原始流或生成的mp4文件创建类型对象?
感谢您提供的任何见解!