FFMPEG:如何将h264流包装到FLV容器中?

jia*_*zhe 0 flv ffmpeg h.264

我想要的很简单:将H.264视频流包装到FLV容器中。但是,ffmpeg只是解码输入流并将原始视频流打包到FLV中。详细信息如下:

输入流是从硬件编码器摄像机捕获的,FLV将被发送到某些视频服务器。首先,我使用以下命令:

$ ffmpeg -framerate 15 -s 320x240 -i /dev/video1 -f flv "rtmp://some.website.com/receive/path"
Run Code Online (Sandbox Code Playgroud)

但是,结果流是可疑的。看方没有收到任何H.264内容。然后,我通过将输出写入本地文件进行了测试。

1:读取原始流,通过h264_omx编码,写入FLV文件:

$ ffmpeg -framerate 15 -s 320x240 -i /dev/video0 -codec h264_omx -f flv raw_input_h264_omx.flv

......
Input #0, video4linux2,v4l2, from '/dev/video0':
  Duration: N/A, start: 194017.870905, bitrate: 18432 kb/s
    Stream #0:0: Video: rawvideo (YUY2 / 0x32595559), yuyv422, 320x240, 18432 kb/s, 15 fps, 15 tbr, 1000k tbn, 1000k tbc
Stream mapping:
  Stream #0:0 -> #0:0 (rawvideo (native) -> h264 (h264_omx))
......
Run Code Online (Sandbox Code Playgroud)

2:读取H264流,写入FLV文件:

$ ffmpeg -framerate 15 -s 320x240 -i /dev/video1  -f flv h264_input.flv

......
Input #0, video4linux2,v4l2, from '/dev/video1':
  Duration: N/A, start: 194610.307096, bitrate: N/A
    Stream #0:0: Video: h264 (Main), yuv420p(progressive), 320x240, 15 fps, 15 tbr, 1000k tbn, 2000k tbc
Stream mapping:
  Stream #0:0 -> #0:0 (h264 (native) -> flv1 (flv))
......
Run Code Online (Sandbox Code Playgroud)

然后相应地读取两个文件:

$ ffmpeg -i raw_input_h264_omx.flv
......
    Stream #0:0: Video: h264 (High), yuv420p(progressive), 320x240, 200 kb/s, 15 fps, 15 tbr, 1k tbn

$ ffmpeg -i h264_input.flv
......
    Stream #0:0: Video: flv1, yuv420p, 320x240, 200 kb/s, 15 fps, 15 tbr, 1k tbn
Run Code Online (Sandbox Code Playgroud)

很明显,当我提供H.264流时,ffmpeg首先对其进行解码,然后将原始视频打包到FLV中。如何避免这种情况发生,并直接打包H.264流?

补充:我最终将推送多​​个视频流,所以不要要求我允许ffmpeg进行静默解码,然后再次对流进行编码。

Gya*_*yan 5

除非另有说明,否则ffmpeg将对流进行代码转换。

使用

ffmpeg -framerate 15 -s 320x240 -i /dev/video1 -c copy -f flv "rtmp://website/receive/path"
Run Code Online (Sandbox Code Playgroud)