如何远程处理(低延迟)Raspicam输出?

Yae*_*ger 5 linux opencv netcat raspberry-pi

由于Raspberry Pi的处理能力有限,我需要在远程机器上处理相机输出.本机是Linux服务器,应使用OpenCV处理视频数据.

我发现了一种技术上可行的解决方案,但在1280x720分辨率下产生大约10秒的不可接受的高延迟,在640x360分辨率下产生大约17秒的高延迟.也许这是由于某些缓冲区大小太大造成的?

那么,到目前为止我的解决方案

在Raspberry PI上首先使用raspivid命令捕获视频,将此数据输出到标准输出并使用netcat进行传输:

raspivid --timeout 0 --nopreview --intra 2 --width 1280 --height 720 --framerate 20 --output - | nc 192.168.1.108 5555
Run Code Online (Sandbox Code Playgroud)

然后在接收部分(实际上在发送之前调用):

nc -l -p 5555 | ./receiver
Run Code Online (Sandbox Code Playgroud)

其中receiver是一个带有以下源代码的C++应用程序:

#include <opencv2/highgui/highgui.hpp>
#include <iostream>

int main()
{
    cv::VideoCapture cap("/dev/stdin");

    if(!cap.isOpened())
    {
        std::cout << "Could not open '/dev/stdin'!" << std::endl;
        return -1;
    }

    cv::namedWindow("Receiver");
    cv::Mat frame;

    while(cap.read(frame))
    {
        cv::imshow("Receiver", frame);
        cv::waitKey(30);
    }

    cv::waitKey(0);
    return 0;
}
Run Code Online (Sandbox Code Playgroud)

如何将raspicam输出传输到(Linux)服务器,并能够使用支持OpenCV的C++应用程序处理此数据.在帧的传输和该帧的实际处理之间需要低等待时间(<400ms是可接受的).

编辑:还需要高分辨率(1280x720或更高).

请原谅我的英文,如果有任何错误!

mad*_*uci 0

您可以使用 QWebSockets (Qt5)。您所需要做的就是将图片从 cv::Mat 转换为 QByteArray 并流式传输它们。在 720p 下,我通过 LAN 连接获得了近 15 FPS。