Raspberry Pi 3 上的 OpenCV 多个 USB 摄像头

Aar*_*ron 5 python opencv raspberry-pi raspbian

我之前看过很多与此相关的问题,但没有一个有帮助。

我的设置:

  • 其中之一
    • 他们显示为/dev/video0/dev/video1
    • 图像尺寸为 640 x 480
  • 树莓派3
  • 树莓派杰西
  • OpenCV 3.1.0
  • Python 2.7

对于任一相机,我都可以捕获图像并以相当不错的速率显示它们,并且延迟最小(偶尔会出现伪影)。

然而,当我尝试同时使用两者时,我可能会得到十分之一的帧速率(尽管帧之间的延迟似乎随帧变化很大),并伴有各种令人讨厌的图像伪影(例如见下文)和难以忍受的延迟量。

文物

问题似乎并不在于相机本身或设备上的 USB 带宽:当我将相机连接到 Windows PC 时,我能够以 30 FPS 的速度进行捕捉和显示,没有任何视觉伪影,并且延迟也很小。

据我所知,问题肯定出在 Pi 硬件、驱动程序或 OpenCV 上。我不认为这是 Pi 硬件..如果我能用两台相机实现用一台相机获得的帧速率的一半(我不明白为什么这不应该是可能的)并且没有丑陋的伪影,我会很高兴。

有没有人有什么建议?我最终只是想将两个摄像头的视频从我的 Pi 流式传输到我的桌面。如果有不涉及 OpenCV 的建议,我会洗耳恭听;我并不想在 Pi 上对图像进行任何渲染或操作,但 openCV 是我发现的唯一可以相当快地捕获图像的工具(当然,使用一台相机)。

仅供参考,我使用的简单 python 脚本是这样的:

import cv2
import numpy as np
import socket
import ctypes
import struct

cap = []
cap.append(cv2.VideoCapture(0))
cap.append(cv2.VideoCapture(1))

#grab a single frame from one camera
def grab(num):
    res, im = cap[num].read()
    return (res,im)

#grab a frame from each camera and stitch them
#side by side
def grabSBS():
    res, imLeft  = grab(1)
    #next line is for pretending I have 2 cameras
    #imRight = imLeft.copy()
    res, imRight = grab(0)
    imSBS = np.concatenate((imLeft, imRight), axis=1)
    return res,imSBS

###For displaying locally instead of streaming
#while(False):
#    res, imLeft = grab(0)
#    imRight = imLeft.copy()
#    imSBS = np.concatenate((imLeft, imRight), axis=1)
#    cv2.imshow("win", imSBS)
#    cv2.waitKey(20)

header_data = ctypes.create_string_buffer(12)

while(True):
    sck = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
    sck.bind(("10.0.0.XXX", 12321))

    sck.listen(1)

    while(True):
        (client, address) = sck.accept()
        print "Client connected:", address
        try:
            while(True):
            res,im = grabSBS()
            if(res):
                success, coded = cv2.imencode('.jpg', im)
                if (success):
                    height, width, channels = im.shape
                    size = len(coded)
                    struct.pack_into(">i", header_data , 0, width)
                    struct.pack_into(">i", header_data , 4, height)
                    struct.pack_into(">i", header_data , 8, size)
                    client.sendall(header_data .raw)
                    client.sendall(coded.tobytes())
        except Exception as ex:
            print "ERROR:", ex
            client.close()
            sck.close()
            exit()
Run Code Online (Sandbox Code Playgroud)

更新:通过在初始化 VideoCapture 对象后添加以下代码行,我让它工作得好多了:

cap[0].set(cv2.CAP_PROP_FPS, 15)
cap[1].set(cv2.CAP_PROP_FPS, 15)
Run Code Online (Sandbox Code Playgroud)

这既降低了所需的带宽,也降低了 openCV 的工作负载。我仍然每隔几帧就会得到那些可怕的伪像,所以如果有人对此有建议,我很高兴听到。

Aar*_*ron 4

好吧,在花了大约5个小时与它斗争之后,我似乎找到了解决方案。

首先,显然 OpenCV 试图以 30 FPS 的速度进行捕捉,尽管我无法以 30 FPS 的速度拉取帧。我将 VideoCapture 帧速率更改为 15 FPS,视频变得非常非常流畅和快速。

cap[0].set(cv2.CAP_PROP_FPS, 15.0)
cap[1].set(cv2.CAP_PROP_FPS, 15.0)
Run Code Online (Sandbox Code Playgroud)

但这并没有消除文物。我最终发现,如果我del(im)在通过网络发送图像后这样做,伪影就会完全消失。