我找到了使用Ffmpeg合并2个视频的答案
ffmpeg.exe -i LeftInput.mp4 -vf "[in] scale=iw/2:ih/2, pad=2*iw:ih [left];
movie=RightInput.mp4, scale=iw/3:ih/3, fade=out:300:30:alpha=1 [right];
[left][right] overlay=main_w/2:0 [out]" -b:v 768k Output.mp4
Run Code Online (Sandbox Code Playgroud)
有结合超过2的方法吗?
我尝试添加[bottom],[upper]但我无法理解叠加层的工作原理以及我在哪里放置更多视频.
我在RPi 2上使用带Python 3.2的moviepy模块。它使用FFMPEG读写视频,因此我按照以下说明安装了FFMPEG 。现在,当我运行该程序时,它说我的视频导出失败,因为FFMPEG找不到所需的libmp3lame编解码器。我如何在我的RPi 2(运行Raspian Wheezy)上安装libmp3lame编解码器?
我认为我必须重新安装FFMPEG才能安装编解码器。如何正确执行此操作?
我正在编写一个脚本,该脚本搜索当前目录和子目录中的所有媒体文件,然后将它们批量编码为 H.265。我希望加入一些最大帧尺寸,使 1080p 的内容变成 720p。这是最简单的部分,但我有一些是 480p 的,我不希望它们最终变成 720p。如何修改我的 ffmpeg 过滤器以考虑到这一点?
命令:
ffmpeg -i input -c:v hevc_nvenc -preset medium -crf 28 -c:a copy output.mp4
Run Code Online (Sandbox Code Playgroud) FFmpeg 现在支持对 SVG 光栅化的 librsvg 支持。
我尝试了以下命令:
ffmpeg -i test.svg test.png
Run Code Online (Sandbox Code Playgroud)
但我收到以下错误:
ffmpeg -i test.svg test.png
Run Code Online (Sandbox Code Playgroud)
我搜索了文档,但没有给出示例。有人可以告诉我如何使用 ffmpeg 在命令行中从 SVG 文件生成 PNG 吗?
我正在尝试合并一些视频,但出现时间戳错误。
我试图使它们都具有相同的尺寸、帧速率、采样率,并在没有音轨时添加音轨。
ffmpeg -i input1.mp4 -y -i audio1.mp3 -c:v copy -c:a aac -shortest output1.mp4
ffmpeg -i input2.mp4 -y -i audio2.mp3 -c:v copy -c:a aac -shortest output2.mp4
ffmpeg -y -safe 0 -f concat -i list.txt -c copy output.mp4
Run Code Online (Sandbox Code Playgroud)
错误信息:
Non-monotonous DTS in output stream 0:0; previous: 8052684, current: 4127401; changing to 8052685. This may result in incorrect timestamps in the output file.
Run Code Online (Sandbox Code Playgroud) 我正在使用ffmpeg将.mkv和.mka文件合并为.mp4文件。我当前的命令如下所示:
ffmpeg -i video.mkv -i audio.mka output_path.mp4
Run Code Online (Sandbox Code Playgroud)
音频和视频文件是Amazon S3的预签名URL。即使在具有足够资源的服务器上,此过程也会非常缓慢。我研究了可以告诉ffmpeg跳过每个帧重新编码的情况,但是我认为在我的情况下实际上确实需要重新编码每个帧。
我已经将2个示例文件下载到了我的Macbook Pro,并通过自制软件在本地安装了ffmpeg。当我运行命令
ffmpeg -i video.mkv -i audio.mka -c copy output.mp4
Run Code Online (Sandbox Code Playgroud)
我得到以下输出:
ffmpeg version 3.3.2 Copyright (c) 2000-2017 the FFmpeg developers
built with Apple LLVM version 8.1.0 (clang-802.0.42)
configuration: --prefix=/usr/local/Cellar/ffmpeg/3.3.2 --enable-shared --enable-pthreads --enable-gpl --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-libmp3lame --enable-libx264 --enable-libxvid --enable-opencl --disable-lzma --enable-vda
libavutil 55. 58.100 / 55. 58.100
libavcodec 57. 89.100 / 57. 89.100
libavformat 57. 71.100 / 57. 71.100
libavdevice 57. 6.100 / 57. 6.100
libavfilter 6. 82.100 …Run Code Online (Sandbox Code Playgroud) 我有两个视频,上面有很多蓝色。我同时拍摄了一些静止图像,我对它们上的颜色感到很满意,我想重新编码视频,将颜色调整为类似于静止图像的颜色。
我知道我可以从视频中创建大量的jpg图像并对其进行颜色校正,然后再将其重新组装到新的视频中,或者可以使用ffmpeg的色阶过滤器直接进行处理。我不知道如何将数字传递给过滤器。我假设我想做这样的事情:
ffmpeg -i video.mov -vf "colorlevels=rimin=##/255:gimin=##/255:bimin=#/255:rimax=###/255:gimax=###/255:bimax=###/255, eq=gamma=#.##" -y out.mov
Run Code Online (Sandbox Code Playgroud)
如何获得用于r,g和b的最小和最大设置以及gamma值的值,以代替### s?当然,假设这是正确的方法。
更新:也许最好在gimp或photoshop论坛中提出这个问题。但是我知道如何调整这些颜色。我需要知道的是如何将这些更改转换为ffmpeg的预期。