jai*_*bec 5 compression video run-length-encoding image-compression kinect
我需要通过网络从Kinect摄像机发送视频。我正在从以下两个Kinect来源捕获视频:
这相当于至少约53 MB / s的带宽。这就是为什么我需要在源处对两个视频源进行编码(压缩),然后在目标处进行解码。RGB-D数据将由目标处的对象跟踪算法处理。
到目前为止,我发现有许多论文讨论了实现这一任务的算法,例如: RGB和低带宽3D视频的深度帧内交叉压缩
问题在于,此类论文中描述的算法没有公共访问实现。我知道,我可以自己实现它们,但是它们利用了我还不了解的许多其他复杂图像处理算法(边缘检测,轮廓表征等)。
我实际上还发现了一些基于离散中值过滤器,增量(避免发送冗余数据)和LZ4压缩的C ++库:http : //thebytekitchen.com/2014/03/24/data-compression-for-the -kinect /
我的问题是:有没有更简单和/或更有效的方法来压缩Kinect源中的RGB-D数据?
PS:我正在用C ++编写代码。
在最近对该问题的搜索中,我发现了一篇描述使用 h264 视频编解码器压缩深度图像的论文。作者还提供了基础软件:
问题是 h264 可能会引入压缩伪影。为了最大限度地减少编解码器引入的错误,深度图像被分成表示不同距离范围的多个通道。