我正在寻找一个共享库,该库将使用 LD_PRELOAD 加载,该库会将文件系统的视图修改为客户端程序。
理想情况下,我想选择文件系统根目录(或使用 / 作为根目录)并通过重命名文件名来覆盖文件系统。
例如,我可能想让我的程序在 /usr/lib32/* 中查找 /usr/lib/* 。
你知道这样的程序吗?
谢谢。
与这个问题类似,我想有选择地禁用某些 OneDrive 的 shell 图标覆盖。然而,注册表(HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\Explorer\ShellIconOverlayIdentifiers)仅列出:OneDrive1、OneDrive2、OneDrive3、OneDrive4、OneDrive5。其中每一项的含义是什么?
我有两个视频,其中一个叠加在另一个上。覆盖的那个只有几秒钟长,我希望它在主视频播放时保持循环播放。我已经尝试了我能想到的一切,但似乎没有任何效果ffmpeg
- 例子:
如何在“main_video”时间让“video_bg_overlay”自动循环?
我正在尝试使用 ffmpeg 使用叠加过滤器在不同的开始时间组合多个视频文件。
当我在没有任何音频的情况下这样做时,生成的结果是正确的。
当我使用 amix 添加音频过滤器元素以包含来自各种叠加视频的音频时,ffmpeg 开始发出此类错误:
[Parsed_overlay_4 @ 0x305ec40] [framesync @ 0x305ed68] Buffer queue overflow, dropping.
Run Code Online (Sandbox Code Playgroud)
避免这种情况的任何帮助,或替代方法:
将不胜感激。
我已经尝试了很多 setpts/asetpts/amerge/pan 的组合,但无法使其正常工作。
这是我的 ffmpeg 命令行和导致错误的情况的输出(覆盖 y= 中的 if 子句是导致覆盖的剪辑在播放时滚动视频):
ffmpeg -y \
-i /wintmp/vid/butterfly_base.mp4 \
-i /wintmp/vid/party_overlay.mp4 \
-i /wintmp/vid/car_overlay.mp4 \
-pix_fmt yuv420p -r 30000/1001 -filter_complex " [1:v] setpts=PTS-STARTPTS+2/TB [v1] ; [0:v] [v1] overlay=x=50:y='if( gte(t,2), H-(t-2)*128, NAN)' [o1] ; [2:v] setpts=PTS-STARTPTS+3/TB,scale=width=320:height=240 [v2] ; [o1] [v2] overlay=x=100:y='if( gte(t,3), H-(t-3)*102.4, NAN)' [outv] ; [1:a] adelay=2000|2000 [a1] ; [2:a] …Run Code Online (Sandbox Code Playgroud) 我在 Macintosh OS X Lion 上有一个 Adobe Acrobat PDF 文件,我需要在相对于原始 PDF 的特定位置叠加一些纯文本。以前,我创建了一个包含定位文本的 Microsoft Word 文档并打印了两次页面,一次用于原始 PDF,第二次用于 Microsoft Word 文档以获取叠加层。这是相当麻烦的,并且有一些倾斜将纸张发送到打印机两次,使得两次打印输出之间的文本不完全对齐。
相反,我想创建一个新的 PDF(或者可能是其他格式的文件),将原始 PDF 与我想要覆盖的定位文本(例如在 Microsoft Word 文档中)结合在一起。叠加层应该是透明的,不会遮挡原始 PDF 中的任何内容,就像我在同一张纸上手动双面打印的效果一样。
我可以使用 Adobe Acrobat Pro X 以及其他 Adobe 工具(例如 illustrator),但想知道这些工具中的一个或另一个 Adobe 工具是否提供了所需的功能,还是我必须脱离 Adobe 工具系列才能完成此任务?
我不确定这在 stackexchange 中是否更合适,但是诸如 Steam(游戏覆盖)和 FRAPS 之类的程序如何在窗口上覆盖数据?我注意到叠加层/帧只能在由 opengl/directx 驱动的窗口上工作,或者叠加层只是 Windows api 中的一个功能?另外, fraps 如何获得窗口的fps?
我有持续时间为 01:30 分钟的视频,我有另一个持续时间为 00:50 秒的视频我想在 00:45 到 00:50 将第二个视频叠加在第一个视频的顶部
我正在尝试使用此命令,但它不起作用
ffmpeg -i D:\ffmpeg\base_video.mp4 -i D:\ffmpeg\top_video.avi -filter_complex "[0:0][1:0]overlay[out]" -shortest -map [out] -map 0:1 -pix_fmt yuv420p -c:a copy -c:v libx264 -crf 18 D:\ffmpeg\final_video.mp4
Run Code Online (Sandbox Code Playgroud)
请问有什么建议吗?
谢谢
我正在帮助我的女儿和她的朋友建立他们的 Youtube VLOG 频道,现在他们想要进行截屏并放置一个较小的圆形脸部特写(例如在右上角或左上角),您可以在其中看到他们说话关于他们正在截屏的实际内容。我使用 FFmpeg 来处理更基本的事情已经近十年了,但我可以看出这是一项更复杂的任务。
感谢谷歌,我偶然发现了另一个问题线程(/sf/ask/2976301471/),我认为他试图完成或多或少相同的任务,除了他使用小圆形叠加层和“主”视频的来源相同,而我想使用单独的输入;如果有人愿意解决这个棘手的任务,请使用“main.mkv”和“facecloseup.mkv”作为命令行!;)
为了简单起见,我可能已经有了两个具有优化分辨率的源,例如 main.mkv 的 1080p 和 Facecloseup.mkv 的 240x240 或类似的东西,然后我只需要数学语法即可从 Facecloseup 中裁剪出中心圆.mkv 并放在某个角落,为简单起见,取左上角。
干杯!
我正在尝试制作包含静态图像和覆盖在其上的较小视频的视频。叠加视频的尺寸和位置会动态发送到运行 FFMPEG 的服务器脚本,因此我需要在叠加视频之前对其进行缩放。所以,我使用的数值仅用于测试。原始视频的尺寸为 72:48px。我试过这样的命令:
ffmpeg -i background.jpg -vf "movie=overlay.mp4, scale=128:96 [inner]; [in][inner] overlay=70:70 [out]" -y output.mp4
Run Code Online (Sandbox Code Playgroud)
但是,它会立即生成一个空视频。另一方面,如果我尝试-loop 1在ffmpeg命令后立即插入,视频的处理似乎需要无穷无尽的时间并且永远不会完成。
我想要实现的是避免首先创建缩放视频。有可能吗,我做错了什么?