我想将我的视觉里程计结果与 KITTI 数据集提供的地面实况进行比较。对于groundthruth 中的每一帧,我都有一个投影矩阵。例如:
1.000000e+00 9.043683e-12 2.326809e-11 1.110223e-16 9.043683e-12 1.000000e+00 2.392370e-10 2.220446e-16 2.326810e-11 2.392370e-10 9.999999e-01 -2.220446e-16
Run Code Online (Sandbox Code Playgroud)
这里是自述文件提供的说明:
第 i 行通过 3x4 变换矩阵表示左相机坐标系的第 i 个姿势(即 z 指向前方)。矩阵按行对齐顺序存储(第一个条目对应于第一行),并在第 i 个坐标系中取一个点并将其投影到第一个(=第 0 个)坐标系中。因此,平移部分(第 4 列的 3x1 向量)对应于第 i 帧中左相机坐标系相对于第一个(=第 0)帧的姿态
但我不知道如何为我生成相同类型的数据。在我的情况下,我对每一帧都有什么:
有了这些数据,我如何与真实情况进行比较?所以我需要从上面的数据中找到投影矩阵,但不知道如何去做。
在大图中,我想获得一个投影矩阵或知道如何分解由地面实况提供的投影矩阵,以便将转换与我的数据进行比较。
有人能帮我吗 ?
谢谢