标签: video-capture

适用于iOS的可用视频录制格式

功能是从iPhone录制视频并将其上传到服务器,然后它应该与Android设备同步,并应该可以在那里播放.从谷歌搜索我开始知道iPhone记录.mov文件.

我想知道的是,如果除了.mov之外还有其他可用的格式,那么它可以在Android设备上以及在服务器上播放.

谢谢.

SDK: 5.0;    
Xcode: 4.2;
Devices: iPhone 4,4S, iPad2,3
Run Code Online (Sandbox Code Playgroud)

iphone format video-capture ios5

0
推荐指数
2
解决办法
7509
查看次数

如何将图形内容捕获为图像

我有一个透明的 jframe,上面有滚动文本,我需要捕获 jframe,而不是它后面的内容。起初,java.awt.Robot 看起来很有前途,但它不仅仅捕获 jframe 的图形上下文。也许有人知道 API 的一部分可以帮助解决这个问题......

java swing video-capture

0
推荐指数
1
解决办法
114
查看次数

如何在 Linux 上使用音频流读取 python 中的视频文件?

我正在寻找一种方法,如何使用 python 从视频文件中提取视频帧和相应的音频段。我很了解opencv。但它只允许提取视频帧。没有提供音频。我需要两者 - 彼此完全对应的视频帧和音频段。

将非常感谢任何提示:)

python video-capture audio-capture

0
推荐指数
1
解决办法
3503
查看次数

simpleWebRTC 视频聊天无法构建“RTCPeerConnection”:错误

好的,我正在制作有关 webRTC 的教程,并且我一直在使用以下两个教程来帮助我。

Sitepoint 教程Scotch 教程

首先要注意的是,对于第一个教程,即使使用从 github 克隆的源代码:

https://github.com/sitepoint-editors/simplewebrtc-messenger.git

当我在 Now.sh 上部署应用程序时,它可以工作,但我无法加入不同的用户。

太长了;

这是我部署的应用程序。当我尝试加入远程连接时出现此错误

未捕获的 DOMException:无法构造“RTCPeerConnection”:“stun.l.google.com”不是受支持的 URL 方案“stun”、“turn”或“turns”之一。

这是[源代码

// Code goes here

let username, roomname;
// Determine whether or not we have a querystring.
function hasQueryString() {
    console.log(location.href.indexOf("?"))
    return location.href.indexOf("?") !== -1;
}
const formEl = $('.form');
// Enable video on the page.
function enableVideo() {
    document.getElementById("url").style.display = "block";
    document.getElementById("remotes").style.visibility = "visible";
    loadSimpleWebRTC();
}

if (hasQueryString()) {
    console.log("Query string!");
    enableVideo();
    if (formEl) {
        formEl.hide(); …
Run Code Online (Sandbox Code Playgroud)

javascript video-capture video-streaming webrtc simplewebrtc

0
推荐指数
1
解决办法
2649
查看次数

使用skvideo.io.FFmpegWriter从相机写入帧

我试图用精确控制在飞行中拍摄的摄像机图像帧的视频编码skvideo.io.FFmpegWritercv2.VideoCapture,如

from skvideo import io
import cv2

fps = 60
stream = cv2.VideoCapture(0)                    # 0 is for /dev/video0
print("fps: {}".format(stream.set(cv2.CAP_PROP_FPS, fps)))

stream.set(cv2.CAP_PROP_FRAME_WIDTH, 1920)
stream.set(cv2.CAP_PROP_FRAME_HEIGHT, 1080)
print("bit_depth: {}".format(stream.set(cv2.CAP_PROP_FORMAT, cv2.CV_8U)))

video = io.FFmpegWriter('/tmp/test_ffmpeg.avi', 
            inputdict={'-r': fps, '-width': 1920, '-height': 1080},
            outputdict={'-r': fps, '-vcodec': 'libx264', '-pix_fmt': 'h264'}
)

try:
    for i in range(fps*10):  # 10s of video
        ret, frame = stream.read()
        video.writeFrame(frame)
finally:
    stream.release()

try:
    video.close()
except:
    pass
Run Code Online (Sandbox Code Playgroud)

但是,我收到以下异常(在Jupyter笔记本中):

---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)

<ipython-input-33-007a547c4229> in <module>()
     18 …
Run Code Online (Sandbox Code Playgroud)

python opencv ffmpeg video-capture scikits

0
推荐指数
1
解决办法
1693
查看次数

FFMPEG:获取视频中每一帧对应的系统时间

我目前正在 Windows 10 系统上使用以下命令录制屏幕,

ffmpeg.exe -loglevel quiet -f gdigrab -framerate 30 -i desktop -vf mpdecimate,setpts=N/FRAME_RATE/TB -vcodec libx264 -pix_fmt yuv420p -preset slow -crf 0 -threads 0 nodups.mkv
Run Code Online (Sandbox Code Playgroud)

如果我录制一个 5 分钟的视频,其中 4 分钟是空闲的。最终得到的视频只有1分钟。我想知道这个1分钟视频中特定帧对应的系统时间。我尝试使用该命令从这个 1 分钟视频中获取第 40 帧的帧信息,例如:ffmpeg -i nodups.mkv -vf select='eq(n,40)',showinfo -f null - 这输出了我

[Parsed_showinfo_1 @ 000002455fce5dc0] n:   0 pts:   1333 pts_time:1.333   pos:   158601 fmt:yuv420p sar:0/1 s:1600x900 i:P iskey:0 type:P checksum:885ECCE2 plane_checksum:[7D89AD8E DC745BDC 0E23C369] mean:[158 128 128] stdev:[101.7 4.5 4.0
Run Code Online (Sandbox Code Playgroud)

有没有办法获得使用 FFMPEG 捕获该帧时的系统时间?任何输入都会有帮助。

video timestamp ffmpeg video-capture duplicates

0
推荐指数
1
解决办法
3079
查看次数