如何使用libavformat用相同的编解码器连接2个视频文件(重新混合)?

Tar*_*han 5 ffmpeg muxer libav libavformat

我已经从CDN下载了flv格式的视频(视频H264和音频AAC),并将其重新混合为MP4格式。但是视频受到长度的限制。因此,我已经下载了每个部分的视频:从起点,第1点,第2点开始(通过使用url中的seek参数)。每一点的开始都比上一点的结束早。
使用av_read_framei扫描了所有部分,发现相交的数据包不仅具有相同的大小和顺序,而且它们的dts / pt彼此偏移恒定值。因此,要将视频与从点1开始的视频并置在一起,我必须执行以下操作:
1.在输出文件中创建输出标头
。2.复制起始视频中的所有非相交数据包。
3.通过将常量移动dts值,从点1开始的视频复制所有非相交的数据包

如何使用libav(不是ffmpeg)执行所有这些操作?我阅读了如何在不使用其他libav库的情况下使用libavformat。但libav它不工作,因为那里没有avformat_alloc_output_context2libavavconv.c对于像我这样的新手来说,源代码源也太复杂了,无法隔离与流复制操作相关的部分。
有人可以提供我为例:
-开放input_file1input_file2(仅当需要从通用教程标准程序不同)
-开放和写报头OUTPUT_FILE与同一容器格式和相同的视频和音频格式
-写数据包从input_file1OUTPUT_FILE直到与例如分组pos == XXX
-写入分组从input_file2OUTPUT_FILE由恒定值改变它们的DTS(或任何需要的话)
-写正确trailer

我之前在dts中计算时移。

ara*_*rdi 4

好的,我找到了那段代码,但正如我在评论中所说,由于某种原因它不起作用。让我知道你是否可以修复它

/*
 * merge.c
 *
 *  Created on: Nov 17, 2012
 *      Author: arash
 */

/* merge multiple "IDENTICAL" video file into one file */

#include <stdio.h>

#include "libavcodec/avcodec.h"
#include "libavformat/avformat.h"

AVFormatContext *i_fmt_ctx;
AVStream *i_video_stream;

AVFormatContext *o_fmt_ctx;
AVStream *o_video_stream;


int main(int argc, char* argv[])
{
    if (argc < 3)
    {
        fprintf(stderr, "usage : %s <input> [<input>...] <output>\n", argv[0]);
        return -1;
    }

    avcodec_register_all();
    av_register_all();

    /* should set to NULL so that avformat_open_input() allocate a new one */
    i_fmt_ctx = NULL;
    if (avformat_open_input(&i_fmt_ctx, argv[1], NULL, NULL)!=0)
    {
        fprintf(stderr, "could not open input file\n");
        return -1;
    }

    if (av_find_stream_info(i_fmt_ctx)<0)
    {
        fprintf(stderr, "could not find stream info\n");
        return -1;
    }

    //av_dump_format(i_fmt_ctx, 0, argv[1], 0);

    /* find first video stream */
    for (unsigned i=0; i<i_fmt_ctx->nb_streams; i++)
        if (i_fmt_ctx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
        {
            i_video_stream = i_fmt_ctx->streams[i];
            break;
        }
    if (i_video_stream == NULL)
    {
        fprintf(stderr, "didn't find any video stream\n");
        return -1;
    }

    avformat_alloc_output_context2(&o_fmt_ctx, NULL, NULL, argv[argc-1]);

    /*
     * since all input files are supposed to be identical (framerate, dimension, color format, ...)
     * we can safely set output codec values from first input file
     */
    o_video_stream = av_new_stream(o_fmt_ctx, 0);
    {
        AVCodecContext *c;
        c = o_video_stream->codec;
        c->bit_rate = 400000;
        c->codec_id = i_video_stream->codec->codec_id;
        c->codec_type = i_video_stream->codec->codec_type;
        c->time_base.num = i_video_stream->time_base.num;
        c->time_base.den = i_video_stream->time_base.den;
        fprintf(stderr, "time_base.num = %d time_base.den = %d\n", c->time_base.num, c->time_base.den);
        c->width = i_video_stream->codec->width;
        c->height = i_video_stream->codec->height;
        c->pix_fmt = i_video_stream->codec->pix_fmt;
        printf("%d %d %d", c->width, c->height, c->pix_fmt);
        c->flags = i_video_stream->codec->flags;
        c->flags |= CODEC_FLAG_GLOBAL_HEADER;
        c->me_range = i_video_stream->codec->me_range;
        c->max_qdiff = i_video_stream->codec->max_qdiff;

        c->qmin = i_video_stream->codec->qmin;
        c->qmax = i_video_stream->codec->qmax;

        c->qcompress = i_video_stream->codec->qcompress;
    }

    avio_open(&o_fmt_ctx->pb, argv[argc-1], AVIO_FLAG_WRITE);

    /* yes! this is redundant */
    av_close_input_file(i_fmt_ctx);

    avformat_write_header(o_fmt_ctx, NULL);

    int last_pts = 0;
    int last_dts = 0;
    for (int i=1; i<argc-1; i++)
    {
        i_fmt_ctx = NULL;
        if (avformat_open_input(&i_fmt_ctx, argv[i], NULL, NULL)!=0)
        {
            fprintf(stderr, "could not open input file\n");
            return -1;
        }

        if (av_find_stream_info(i_fmt_ctx)<0)
        {
            fprintf(stderr, "could not find stream info\n");
            return -1;
        }
        av_dump_format(i_fmt_ctx, 0, argv[i], 0);

        /* we only use first video stream of each input file */
        i_video_stream = NULL;
        for (unsigned s=0; s<i_fmt_ctx->nb_streams; s++)
            if (i_fmt_ctx->streams[s]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
            {
                i_video_stream = i_fmt_ctx->streams[s];
                break;
            }

        if (i_video_stream == NULL)
        {
            fprintf(stderr, "didn't find any video stream\n");
            return -1;
        }

        int64_t pts, dts;
        while (1)
        {
            AVPacket i_pkt;
            av_init_packet(&i_pkt);
            i_pkt.size = 0;
            i_pkt.data = NULL;
            if (av_read_frame(i_fmt_ctx, &i_pkt) <0 )
                break;
            /*
             * pts and dts should increase monotonically
             * pts should be >= dts
             */
            i_pkt.flags |= AV_PKT_FLAG_KEY;
            pts = i_pkt.pts;
            i_pkt.pts += last_pts;
            dts = i_pkt.dts;
            i_pkt.dts += last_dts;
            i_pkt.stream_index = 0;

            //printf("%lld %lld\n", i_pkt.pts, i_pkt.dts);
            static int num = 1;
            printf("frame %d\n", num++);
            av_interleaved_write_frame(o_fmt_ctx, &i_pkt);
            //av_free_packet(&i_pkt);
            //av_init_packet(&i_pkt);
        }
        last_dts += dts;
        last_pts += pts;

        av_close_input_file(i_fmt_ctx);
    }

    av_write_trailer(o_fmt_ctx);

    avcodec_close(o_fmt_ctx->streams[0]->codec);
    av_freep(&o_fmt_ctx->streams[0]->codec);
    av_freep(&o_fmt_ctx->streams[0]);

    avio_close(o_fmt_ctx->pb);
    av_free(o_fmt_ctx);

    return 0;
}
Run Code Online (Sandbox Code Playgroud)