标签: depth

使用来自 AVDepthData 的差异的 iPhone X 后置摄像头的绝对深度?

我正在尝试AVDepthData根据以下方程估计对象的绝对深度(以米为单位):depth = baseline x focus_length / (disparity + d_offset)。我有来自 的所有参数cameraCalibrationData,但是这是否仍然适用于使用 iPhone X 在人像模式下拍摄的图像,因为两个摄像头垂直偏移?同样基于WWDC 2017 Session 507,视差图是相对的,但AVDepthData文档指出视差值在 1/m 中。那么我可以按原样将方程应用于深度数据中的值,还是需要事先进行一些额外的处理?

var depthData: AVDepthData

do {
  depthData = try AVDepthData(fromDictionaryRepresentation: auxDataInfo)

} catch {
  return nil
}

// Working with disparity
if depthData.depthDataType != kCVPixelFormatType_DisparityFloat32 {
  depthData = depthData.converting(toDepthDataType: kCVPixelFormatType_DisparityFloat32)
}

CVPixelBufferLockBaseAddress(depthData.depthDataMap, CVPixelBufferLockFlags(rawValue: 0))

// Scale Intrinsic matrix to be in depth image pixel space
guard var intrinsicMatrix = depthData.cameraCalibrationData?.intrinsicMatrix …
Run Code Online (Sandbox Code Playgroud)

disparity-mapping stereo-3d depth ios swift

6
推荐指数
0
解决办法
922
查看次数

XPath:如何:使用当前上下文的给定属性名称选择所有子孙(不论深度)?

XML:

<root0>
    <elem1>
        <elem21 xlink:href="21"/>
        <elem22>
            <elem31 xlink:href="31"/>
            <elem32>
                <elem41 xlink:href="41"/>
            </elem32>
        </elem22>
    </elem1>
</root0>
Run Code Online (Sandbox Code Playgroud)

深度未知.如何使用xlink:href属性选择所有元素?

我尝试了以下方法:

*[@xlink:href]
self::*[@xlink:href]
Run Code Online (Sandbox Code Playgroud)

任何指导表示赞赏.

xml xpath depth

5
推荐指数
1
解决办法
1万
查看次数

Kinect:如何从一些深度数据中获取骨架数据(从kinect开始,但我修改了一些地方)

我可以从我的Kinect获取深度帧,然后修改帧中的数据.现在我想使用修改后的深度帧来获取骨架数据.我该怎么做?

depth kinect

5
推荐指数
1
解决办法
1883
查看次数

用于3D深度感知的硬件

我计划通过集成3D深度传感器(如Kinect或Asus Xtion Pro)来提供预制机器人3D视觉.这是我能找到的唯一两个我想象的还有更多正在构建或已经存在的东西.

有没有人对我可以使用的硬件有任何建议,或者哪两个对于集成到ROS(机器人操作系统)的开源项目更好.

robotics sensor computer-vision depth kinect

5
推荐指数
1
解决办法
1392
查看次数

rmagick像素颜色值

我正在使用rmagick处理获取位图的每个单个像素.我需要获得深度为8(256色)的颜色值,但不幸的是,当我使用像素.[颜色](例如像素.红色)时,我得到它们的深度为16.它甚至发生在我之后used image.quantize(256).

这是代码:

require 'RMagick'
include Magick

image = ImageList.new("image.bmp")
image3 = image.quantize(number_colors = 256)
puts image3.number_colors

image2 = Image.new(image.columns, image.rows)

(0..image.columns).each do |x|
    (0..image.rows).each do |y|
        pixel = image3.pixel_color(x, y)

    print pixel.red
    print ", "
    print pixel.green
    print ", "
    print pixel.blue
    print "\n"

    image2.pixel_color(x, y, pixel)
    end
end
Run Code Online (Sandbox Code Playgroud)

我应该得到0..255的值?

ruby rmagick colors bitmap depth

5
推荐指数
1
解决办法
5248
查看次数

使用深度信息的对象识别算法的建议

我最近实施以下描述的技术识别软件本文.但是,我的数据集还包含使用OpenNI拍摄的深度图.

我想使用深度信息来增强识别器的稳健性.我虽然在提取VFH描述符后训练了1-vs-all SVM计算弓形响应直方图(我为此任务改编了OpenCV DescriptorExtractor接口).但重点是:我如何将两者结合起来以获得更精确的结果?有人可以建议我这个策略吗?

Ps我非常想测试识别器直接向kinect显示对象(而不是像我现在正在做的那样,将裁剪的图像提供给识别器).

opencv object-recognition depth point-cloud-library

5
推荐指数
1
解决办法
1248
查看次数

Kinect如何计算深度?

我在这里有点困惑.

Kinect如何计算深度:我的理解是

  • 红外投影仪抛出一个图案,该图案被红外热像仪反射回来读取.
  • 现在红外摄像机知道特定深度的模式.利用输入和已知模式之间的差异来计算使用三角测量已知的深度(使用相似三角形的比例).

问题1:是否考虑了红外投影仪和红外摄像机之间的距离?我猜不是因为它们太接近而不能被考虑.

问题2:现在我们直接从模式中获取深度.我们disparity map什么时候用来计算深度?

calibration depth camera-calibration kinect

5
推荐指数
1
解决办法
2493
查看次数

Kinect V2中主动红外图像与深度图像的关键差异

我只是在理解主动红外图像和Kinect v2的深度图像之间的区别时感到困惑.谁能告诉我主动红外图像与深度图像相比有什么特殊功能?

infrared depth kinect kinect-sdk

5
推荐指数
1
解决办法
2001
查看次数

非递归git log和diff

git log -p .
Run Code Online (Sandbox Code Playgroud)

仅在当前目录中,但不在子目录中

当量

svn log --diff --depth files .
Run Code Online (Sandbox Code Playgroud)

可能吗?

git git-diff depth non-recursive git-log

5
推荐指数
1
解决办法
1249
查看次数