我正在尝试使用FFMPEG复用h264和使用MediaCodec创建的aac,并使用FFMPEG的RTMP支持发送到youtube.我已经创建了两个管道,并且是通过WriteableByteChannels从java(android)编写的.我可以发送到一个管道就好(接受空音频),如下所示:
./ffmpeg -f lavfi -i aevalsrc=0 -i "files/camera-test.h264" -acodec aac -vcodec copy -bufsize 512k -f flv "rtmp://a.rtmp.youtube.com/live2/XXXX"
Run Code Online (Sandbox Code Playgroud)
YouTube直播效果非常好(但我没有音频).使用两个管道这是我的命令:
./ffmpeg \
-i "files/camera-test.h264" \
-i "files/audio-test.aac" \
-vcodec copy \
-acodec copy \
-map 0:v:0 -map 1:a:0 \
-f flv "rtmp://a.rtmp.youtube.com/live2/XXXX""
Run Code Online (Sandbox Code Playgroud)
管道是用mkfifo创建的,并从java中打开,如下所示:
pipeWriterVideo = Channels.newChannel(new FileOutputStream(outputFileVideo.toString()));
Run Code Online (Sandbox Code Playgroud)
执行顺序(目前在我的测试阶段)是创建文件,启动ffmpeg(通过adb shell),然后开始记录打开通道.ffmpeg将立即打开h264流然后等待,因为它正在从管道读取第一个打开的通道(视频)将成功运行.当尝试以相同的方式打开音频时,它会失败,因为ffmpeg实际上还没有开始从管道中读取.我可以打开第二个终端窗口并播放音频文件,我的应用程序吐出我希望编码的aac,但ffmpeg失败,通常只是坐在那里等待.这是详细输出:
ffmpeg version N-78385-g855d9d2 Copyright (c) 2000-2016 the FFmpeg
developers
built with gcc 4.8 (GCC)
configuration: --prefix=/home/dev/svn/android-ffmpeg-with-rtmp/src/ffmpeg/android/arm
--enable-shared --disable-static --disable-doc --disable-ffplay
--disable-ffprobe --disable-ffserver --disable-symver
--cross-prefix=/home/dev/dev/android-ndk-r10e/toolchains/arm-linux-androideabi-4.8/prebuilt/linux-x86_64/bin/arm-linux-androideabi-
--target-os=linux --arch=arm --enable-cross-compile
--enable-librtmp --enable-pic --enable-decoder=h264
--sysroot=/home/dev/dev/android-ndk-r10e/platforms/android-19/arch-arm
--extra-cflags='-Os -fpic …Run Code Online (Sandbox Code Playgroud)