我有两个文件 -video.mp4和audio.mp3,我想合并它们。最终视频必须具有video.mp4.
我不知道这两个文件中哪个更长,所以我无法使用该-shortest选项。
这是我到目前为止:
ffmpeg -y -i video.mp4 -i audio.mp3 -map 0:v -map 1:a -c copy final.mp4
Run Code Online (Sandbox Code Playgroud) 我想转换以下简单oggenc命令以使用ffmpeg:
oggenc -b 8 input.wav -o out.ogg
Run Code Online (Sandbox Code Playgroud)
从ffmpeg libvorbis wrapper doc,它说,
libvorbis 包装器支持以下选项。选项的 oggenc 等效项列在括号中。
Run Code Online (Sandbox Code Playgroud)b (-b)为 ABR 设置以比特/秒表示的比特率。oggenc -b 以千比特/秒表示。
但我只是不知道如何将其应用于ffmpeg,我已经尝试过,
ffmpeg -i input.aac -c:a libvorbis -b 8 out.ogg
ffmpeg -i input.aac -c:a libvorbis b 8 out.ogg
ffmpeg -i input.aac -c:a libvorbis=b:8 out.ogg
Run Code Online (Sandbox Code Playgroud)
但没有一个按预期工作。
更新:我想知道的是如何将 ffmpeg(libvorbis 包装器)文档中列出的选项“翻译”为 ffmpeg 命令。我可以通过-abswitch 进行转码,但我认为这不是libvorbis 包装器特定的选项。因此,如果您提供了答案,请同时提供指定以下所有选项的演示。
b (-b)
q (-q)
minrate (-m)
maxrate (-M)
iblock
Run Code Online (Sandbox Code Playgroud) 我需要在ffmpeg中从点到点画一条线。我drawline在 ffmpeg 中没有看到过滤器,所以我认为drawbox需要使用(见下面的命令)。我怎么能适应它来绘制一条对角线,比如说,10,10到500,500?
我已经使用勾股定理来计算线需要有多“宽”,但这是我得到的:
ffmpeg -i input.mp4 -vf drawbox=x=10:y=10:w=692:h=1:color=red output.mp4
谢谢
我正在使用 Ffmpeg 在 Windows 10 中录制屏幕视频:
ffmpeg -rtbufsize 1500M -f gdigrab -framerate 29.97 -draw_mouse 0 -offset_x 2777 -offset_y 344 -video_size 1280x720 -i desktop -c:v libx264 -vf format=yuv420p -preset ultrafast D:/myvideo.mpg
Run Code Online (Sandbox Code Playgroud)
如果我在 VLC 中播放录制的文件,它们工作正常。如果我在内置的 Windows Media Player 或“电影和电视”中播放它们,我会收到此错误代码:0xc10100be ERROR_INVALID_MODULETYPE
是否有任何设置需要添加到 Ffmpeg 以在 Windows 中使用?
按照本教程,我设法以合理的内存大小创建了高质量的 gif。
使用管道,我目前正在做的是这个
# Generate palette
ffmpeg -y -i - -vf fps=15,scale=600:-1:flags=lanczos,palettegen some_dir/palette.png
# Generate gif using palette
ffmpeg -y -i - -i some_dir/palette.png -filter_complex fps=15,scale=600:-1:flags=lanczos[x];[x][1:v]paletteuse output.gif
Run Code Online (Sandbox Code Playgroud)
这很好用,但我在上面的教程中读到可以为每一帧生成不同的调色板,我该怎么做?(为每一帧生成和使用不同的调色板)
我创建了一个自动运行 ffmpeg 代码行的程序,它适用于除一个之外的所有功能:如果我尝试绘制叠加一些字幕,则绝对路径有问题,如果我在桌面上打开的外壳中使用相同的代码它有效,但如果我写绝对路径,它就不起作用。
ffmpeg -i input.mp4 -filter_complex "subtitles=subs.srt:force_style='OutlineColour=&H80000000,BorderStyle=4,Outline=1,Shadow=0,MarginV=20,Fontsize=10,PrimaryColour=&H0000ff&'" output.mp4
Run Code Online (Sandbox Code Playgroud)
如果我使用自己的绝对路径(“c:\users\home\desktop\input.mp4”)更改 ffmpeg、input.mp4、subs.srt、output.mp4,它不起作用!
我也试过:
错误:
[subtitles @ 0000000002ab79c0] Unable to parse option value "UsersFamigliaDesktop569.srt" as image size
Last message repeated 1 times
[subtitles @ 0000000002ab79c0] Error setting option original_size to value UsersFamigliaDesktop569.srt.
[Parsed_subtitles_0 @ 0000000002ab78e0] Error applying options to the filter.
[AVFilterGraph @ 0000000002edcd20] Error initializing filter 'subtitles' with args 'C:UsersFamigliaDesktop569.srt:force_style=OutlineColour=&H80000000,BorderStyle=4,Outline=1,Shadow=0,MarginV=20,Fontsize=15,PrimaryColour=&H000000&'
Error reinitializing filters!
Failed to inject frame into filter network: Invalid argument
Error while processing the decoded …Run Code Online (Sandbox Code Playgroud) 我最近买了一台 Luowice 的 IP 摄像机,型号LWS-R8-2MP。摄像机提供检测到运动时将视频上传到 FTP 服务器的功能。相机上传.264文件。我的计划是在上传文件后触发一个脚本,该脚本将文件转换为.mp4并通过即时消息服务传送。但是我无法转换文件,因为它似乎是一种不常见的或专有的格式。我已经尝试过这里提到的解决方案,但是当我运行时
ffmpeg -framerate 24 -i A180126_222057_222111.264 -c copy output.mp4
Run Code Online (Sandbox Code Playgroud)
我收到以下错误输出(这是在 macOS 上,但目标系统是 Linux):
ffmpeg version 3.4.1 Copyright (c) 2000-2017 the FFmpeg developers
built with Apple LLVM version 9.0.0 (clang-900.0.39.2)
configuration: --prefix=/usr/local/Cellar/ffmpeg/3.4.1 --enable-shared --enable-pthreads --enable-version3 --enable-hardcoded-tables --enable-avresample --cc=clang --host-cflags= --host-ldflags= --enable-gpl --enable-libmp3lame --enable-libx264 --enable-libxvid --enable-opencl --enable-videotoolbox --disable-lzma
libavutil 55. 78.100 / 55. 78.100
libavcodec 57.107.100 / 57.107.100
libavformat 57. 83.100 / 57. 83.100
libavdevice 57. …Run Code Online (Sandbox Code Playgroud) 我正在尝试设置hevc_nvenc编码器ffmpeg以获得最佳结果以进一步推迟。不幸的是,我发现的文档非常糟糕。我想知道预设下的值是什么(慢速、无损、快速等...)?
我尝试了在 StackExchange 上找到的许多不同选项,用于将静止图像转换为 mp4。我还没有完全成功。任何帮助,将不胜感激。
ffmpeg -i ../*.jpg -c:v libx264 -crf 0 -y output.mp4
Run Code Online (Sandbox Code Playgroud)
生成的 mp4 包含视频长度为 00:00 的第一张图像。看起来它正在工作。流映射显示流映射中的所有 17 个图像 (0-16)。我在输出文本中看到它确定图像分辨率为 1280x800,这是正确的。
我不确定它是否相关,但初始图像大约为 93KB。mp4 是 504KB。
这 17 张图像是测试集的一部分。最终,我希望用这个方法来生成一个 6 天的延时。
最近,我使用 ffmpeg 和 intel hevc_qsv硬件加速和libx265将 H264 视频重新编码为 HEVC 。hevc_qsv 产生更大尺寸的视频,而 libx265 产生尺寸减小 50% 的视频。我在谷歌上搜索了 h265 与 hevc,它说它们是相同的……如果它们相同,为什么结果会有如此大的差异。
ffmpeg -i "%%a" -c:v libx265 -vtag hvc1 "newfiles\%%~na.mp4
ffmpeg -i "%%a" -c:v hevc_qsv -vtag hvc1 "newfiles\%%~na.mp4
这些是我使用的命令行。