如何将 WAV 文件拉伸到相同的视频长度?

Mic*_*ger 3 ffmpeg

所以是的,这里有一个棘手的 ffmpeg 问题。

在我的应用程序中,我根据图像帧对视频进行编码,并为来自同一来源但通过不同网络套接字的声音添加 WAV 文件。根据这些图像 + fps(加上减去几秒),WAV 文件的长度并不总是与视频完全相同。

如何告诉 ffmpeg “拉伸”输入的 WAV 文件以使其与视频的长度相同?

简而言之: images (i) + WAV (w) = final video (v)

length(w) != length (v) ......这导致了问题。

这是我目前正在使用的示例 ffmpeg 命令:

ffmpeg -f image2 -thread_queue_size 512 -framerate 21.5 -i /frames/%d.webp -i videomail_preview.wav -y -acodec aac -strict Experimental -ac 1 -vcodec libx264 -crf 16 -preset fast -profile:v 基线 - pix_fmt yuv420p -loglevel 警告 -movflags +faststart videomail_good.mp4 -acodec libvorbis -ac 1 -vcodec libvpx -crf 8 -deadline good -cpu-used 1 -pix_fmt yuv420p -loglevel 警告 -movflags +faststart videomail_good.webm

这里是 ffmpeg 版本 + 它的扩展

ffmpeg 版本 2.8.6-1ubuntu2 版权所有 (c) 2000-2016 FFmpeg 开发人员使用 gcc 5.3.1 (Ubuntu 5.3.1-11ubuntu1) 20160311 配置构建:--prefix=/usr --extra-version=1ubuntu2 --build-suffix=-ffmpeg --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64 -linux-gnu --cc=cc --cxx=g++ --enable-gpl --enable-shared --disable-stripping --disable-decoder=libopenjpeg --disable-decoder=libschroedinger --enable-avresample -- enable-avisynth --enable-gnutls --enable-ladspa --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libflite --enable-libfontconfig -- enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libmodplug --enable-libmp3lame --enable-libopenjpeg --enable-libopus --enable-libpulse --enable-librtmp -- enable-libschroedinger --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvorbis--enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxvid --enable-libzvbi --enable-openal --enable-opengl --enable-x11grab --enable-libdc1394 --enable-libiec61883 --enable-libzmq --enable-frei0r --enable-libx264 --enable-libopencv libavutil 54. 31.100 / 54. 31.100 libavcodec 56. 60.100 / 56. 60.501. avdevice av104 avdevice 54 56. 4.100 / 56. 4.100 libavfilter 5. 40.101 / 5. 40.101 libavresample 2. 1. 0 / 2. 1. 0 libswscale 3. 1.101 / 3. 1.101 libswresample 1.103.1.03.1.03.1.035.1.035 3.100100100101 / 3. 1.101 libswresample 1. 2.101 / 1. 2.101 libpostproc 53. 3.100 / 53. 3.100101 / 3. 1.101 libswresample 1. 2.101 / 1. 2.101 libpostproc 53. 3.100 / 53. 3.100

任何我不知道的建议/技巧?

llo*_*gan 5

橡皮筋的声音可能比atempo 好;特别是对于较大的比率差异。如果您想使用橡皮筋但不支持此过滤器ffmpeg(并且不想编译ffmpeg),那么您可以使用独立rubberband工具

rubberband 例子

rubberband -D 12 input.wav output.wav
Run Code Online (Sandbox Code Playgroud)
  • -D<X>, --duration <X>- 拉伸或挤压使输出文件长 X 秒

有关详细信息,请参阅rubberband -hrubberband命令行实用程序帮助文本

循序渐进的过程

不幸的是,这不会是一个单一的命令。使用此方法,您将必须:

  1. 对视频进行编码。
  2. 获取视频时长ffprobe
  3. 生成音频rubberband
  4. 混合视频和音频:

    ffmpeg -i video -i audio -c copy -shortest output
    
    Run Code Online (Sandbox Code Playgroud)

补充说明

  • -movflags +faststart 适用于 MP4,但被 webm muxer 忽略。
  • FFmpeg 2.8.6 版本很旧。建议用户使用当前 git master 分支的构建。最简单的解决方案是下载静态构建,但您可以根据需要进行编译。编译将允许您使用橡皮过滤器ffmpeg