标签: rotational-matrices

为什么四元数用于旋转?

我是一名物理学家,并且一直在学习一些编程,并且遇到很多人使用四元数进行旋转而不是以矩阵/向量形式编写东西.

在物理学中,有很好的理由我们不使用四元数(尽管偶尔讲述汉密尔顿/吉布斯/等的奇怪故事).物理学要求我们的描述具有良好的分析行为(这具有精确定义的含义,但是在一些相当技术的方面远远超出了正常介绍类中教导的内容,所以我不会详细讨论).事实证明,四元数没有这种好的行为,所以它们没用,而矢量/矩阵也没用,所以我们使用它们.

然而,仅限于刚性旋转和不使用任何分析结构的描述,可以以任一方式(或其他一些方式)等效地描述3D旋转.

一般情况下,我们只是想要一个点X =(X,Y,Z)的映射到一个新的点X '=(X',Y",Z ')受约束X 2 = X' 2.并且有很多事情可以做到这一点.

天真的方法是只绘制这个定义的三角形并使用三角学,或者使用点(x,y,z)和向量(x,y,z)和函数f(X)= X'之间的同构,使用一些其他方法(x,y,z)T(a,b,c)(x',y',一个矩阵MX = X',或使用四元数,或沿旧方法投射旧矢量的分量. z')等

从数学的角度来看,这些描述在这个设置中都是等价的(作为一个定理).它们都具有相同数量的自由度,相同数量的约束等.

那么为什么四元数似乎比矢量更受欢迎呢?

我看到的通常原因是没有云台锁或数字问题.

没有万向节锁定论证似乎很奇怪,因为这只是欧拉角的问题.它也只是一个坐标问题(就像极坐标中r = 0处的奇点(Jacobian松散等级)),这意味着它只是一个局部问题,并且可以通过切换坐标,旋转出简并性来解决,或使用两个重叠的坐标系.

我对数字问题不太确定,因为我不清楚这些(以及任何替代方案)是如何实现的.我已经读过,对四元数进行重新规范化比对旋转矩阵进行重新规范化更容易,但这只适用于一般矩阵; 一个旋转具有额外的约束,使得这些约束变得无足轻重(这些约束被内置到四元数的定义中)(事实上,这必须是真的,因为它们具有相同数量的自由度).

那么使用四元数而不是向量或其他替代方法的原因是什么?

3d matrix quaternions rotational-matrices

99
推荐指数
8
解决办法
3万
查看次数

在Java中旋转NxN矩阵

这是Cracking the Coding Interview的一个问题.解决方案说,程序旋转外部边缘,然后旋转内部边缘.但是,我在跟踪两个for循环的逻辑时遇到了麻烦.

有人可以解释代码的逻辑(例如为什么他们做"layer <n/2"和"left - > top"和"bottom - > left"等四个步骤)?另外,在编码面试中提出这个问题时,一个人的思维过程会怎样?

给定由NxN矩阵表示的图像,其中图像中的每个像素是4个字节,写入将图像旋转90度的方法.你能做到这一点吗?

public static void rotate(int[][] matrix, int n) {
    for (int layer = 0; layer < n / 2; ++layer) {
        int first = layer;
        int last = n - 1 - layer;
        for(int i = first; i < last; ++i) {
            int offset = i - first;
            int top = matrix[first][i]; // save top

            // left -> top
            matrix[first][i] = matrix[last-offset][first];          

            // bottom -> left
            matrix[last-offset][first] = …
Run Code Online (Sandbox Code Playgroud)

java matrix rotational-matrices

27
推荐指数
2
解决办法
2万
查看次数

从rotationMatrix中提取偏航,俯仰和滚动

我有一个传感器管理器,它rotationMatrix根据设备Magnetometer和Accelerometer 返回一个.我一直试图计算用户设备的偏航俯仰和滚动,但我发现俯仰和滚动相互干扰并给出不准确的结果.有没有办法从rotationMatrix?提取设备的YAW PITCH和ROLL ?

编辑 试着解释下面的blender的答案,我感谢但还没到那里,我试图从这样的旋转矩阵中获得角度:

       float R[] = phoneOri.getMatrix();
       double rmYaw = Math.atan2(R[4], R[0]);
       double rmPitch = Math.acos(-R[8]);
       double rmRoll = Math.atan2(R[9], R[10]);
Run Code Online (Sandbox Code Playgroud)

我不知道我是否引用矩阵的错误部分,但我没有得到我想的结果.

我希望得到度数的价值,但我得到奇怪的整数.

我的矩阵来自我的sensorManager看起来像这样:

public void onSensorChanged(SensorEvent evt) {
            int type=evt.sensor.getType();
            if(type == Sensor.TYPE_ORIENTATION){
                yaw = evt.values[0];
                pitch = evt.values[1];
                roll = evt.values[2];
            }
            if (type == Sensor.TYPE_MAGNETIC_FIELD) {
                orientation[0]=(orientation[0]*1+evt.values[0])*0.5f;
                orientation[1]=(orientation[1]*1+evt.values[1])*0.5f;
                orientation[2]=(orientation[2]*1+evt.values[2])*0.5f;
            } else if (type == Sensor.TYPE_ACCELEROMETER) {
                acceleration[0]=(acceleration[0]*2+evt.values[0])*0.33334f;
                acceleration[1]=(acceleration[1]*2+evt.values[1])*0.33334f;
                acceleration[2]=(acceleration[2]*2+evt.values[2])*0.33334f;
            }
            if ((type==Sensor.TYPE_MAGNETIC_FIELD) || (type==Sensor.TYPE_ACCELEROMETER)) {
                float newMat[]=new float[16]; …
Run Code Online (Sandbox Code Playgroud)

android rotational-matrices android-sensors

20
推荐指数
2
解决办法
2万
查看次数

将OpenCV旋转和平移向量转换为XYZ旋转和XYZ位置

谷歌的结果和stackoverflow帖子似乎回答了这个问题,但简单的事实是我无法理解它们.无论我读了多少,我都无法绕过四元数和欧拉角以及罗德里格兹的变换以及所有这些.

任何人向我解释,就像我是12,如何从OpenCV的solvePnP()方法返回的旋转和平移向量到xyz位置和xyz旋转值,我可以插入到3D图形应用程序?

这适用于c ++中的增强现实应用程序.我启动并运行OpenCV部件,跟踪标记板并将旋转和平移向量发送到图形程序,但我不知道如何使用该信息来构建我的3d对象.

我真的很想理解这背后的数学,并且会理解这里对理论的任何耐心解释.但是我也会找到一些指向我可以复制/粘贴的代码的指针,并在另一天学习理论.事实上,我似乎通过查看具体代码并向理论工作倒退来更快地学习这样的东西.

编辑:就像这样 ......这显然应该指向正确的方向,但它也可能是我所知道的时间机器的计划.我想到我可能要求补习高中数学,但这不是第一次.

编辑:以下是从solvePnP()...返回的旋转矢量和平移向量的示例...转换为XML以便跳转到图形应用程序.请注意,我看过的每一个都包含三行一列.

<Tvec type_id="opencv-matrix">
  <rows>3</rows>
  <cols>1</cols>
  <dt>f</dt>
  <data>
    -2.50094433e+01 -6.59909010e+00 1.07882790e+02
  </data>
</Tvec>
<Rvec type_id="opencv-matrix">
  <rows>3</rows>
  <cols>1</cols>
  <dt>f</dt>
  <data>
    -1.92100227e+00 -2.11300254e-01 2.80715879e-02
  </data>
</Rvec>
Run Code Online (Sandbox Code Playgroud)

c++ opencv rotation rotational-matrices

14
推荐指数
1
解决办法
2万
查看次数

右转弯

我有一个问题,我有一堆长度,并希望从原点开始(假装我正面向y轴的正端),我向右移动并沿x轴正向移动length_i的距离.这时我又转了一圈,走了length_i的距离,重复了n次.我可以做到这一点,但我认为有一种更有效的方法,我缺乏数学背景:

## Fake Data
set.seed(11)
dat <- data.frame(id = LETTERS[1:6], lens=sample(2:9, 6), 
    x1=NA, y1=NA, x2=NA, y2=NA)

##   id lens x1 y1 x2 y2
## 1  A    4 NA NA NA NA
## 2  B    2 NA NA NA NA
## 3  C    5 NA NA NA NA
## 4  D    8 NA NA NA NA
## 5  E    6 NA NA NA NA
## 6  F    9 NA NA NA NA

## Add a cycle of 4 column    
dat[, "cycle"] …
Run Code Online (Sandbox Code Playgroud)

plot r rotational-matrices

13
推荐指数
3
解决办法
468
查看次数

Three.js:在场景的角落显示世界坐标轴

这可能是一个非常基本的问题,但我还没有找到解决方案,而且一直困扰着我.我想在Maya中显示指示摄像机右下角的世界坐标方向(x,y,z)的箭头,以便在围绕对象旋转摄像机或在场景中移动时,你仍然可以识别世界坐标的方向.我试图用两种不同的方法来实现这一点,到目前为止都没有.

我有一个带有三个箭头的对象作为使用THREE.ArrowHelper该类的孩子,我们XYZ暂时会调用它.第一种方法是制作XYZ一个场景的孩子,并根据摄像机的当前位置计算出一个位置,加上摄像机指向的方向上的偏移量并进行调整,使其显示在我希望它而不是在中心的角落里的屏幕.我几乎得到了这个工作,因为箭头保持正确的旋转,但位置有点滑稽,我停止沿着这条路线,因为当移动相机时它真的是"紧张".我不确定这是性能问题还是其他问题.

第二种方法是使XYZ相机的孩子具有局部位置偏移,然后反转相机的旋转并应用反向旋转以XYZ使其匹配世界坐标.我似乎很接近使用这种方法,但我可以得到正确的位置,或正确的旋转,而不是两者.

我目前正在使用代码XYZ.matrix.extractRotation( camera.matrixWorldInverse );为我提供正确的方向XYZ,但它的定位是关闭的.如果我使用,XYZ.matrixWorld.extractRotation( camera.matrixWorldInverse );那么位置保持正常(连接到相机)但方向不会改变.

如果有人快速破解这项工作,我将不胜感激.如果你有一个比我正在追求的方法更好的方法,那么这也会有所帮助.

** - 编辑 - **应该提一下,你可以在这里找到工作版本 - (https://googledrive.com/host/0B45QP71QXoR0Mm9Mbkp3WGI1Qkk/)我将我的代码存储在谷歌驱动器中,但使用wamp和aliasing在本地工作意味着我在本地进行的任何更改都会在谷歌驱动器同步后立即在线反映出来.IE看起来可能会被打破.

matrix-inverse coordinate-systems rotational-matrices three.js

12
推荐指数
3
解决办法
2万
查看次数

如何计算一台摄像机相对于第二台摄像机的外部参数?

我已根据某个世界坐标系校准了2个摄像头.我知道相对于世界框架的每一个的旋转矩阵和平移向量.从这些矩阵如何计算一个摄像机相对于另一个摄像机的旋转矩阵和平移矢量?

请给我任何帮助或建议.谢谢!

calibration computer-vision camera-calibration rotational-matrices extrinsic-parameters

8
推荐指数
2
解决办法
2842
查看次数

四元数和数值稳定性

我正在学习单位四元数以及如何使用它们来表示和组合旋转.维基百科称它们在数值上比矩阵表示更稳定,但没有给出参考.任何人都可以向我解释(最好用一些数学推理)为什么使用单位四元数来处理旋转(例如对于OpenGL应用程序而不是旋转矩阵)在数值上更稳定?是因为避免了万向节锁?

math rotation quaternions rotational-matrices numerical-stability

8
推荐指数
2
解决办法
3735
查看次数

使用特征库从旋转矩阵滚动俯仰和偏航

我需要从旋转矩阵中提取滚动俯仰偏航角度,我想确保我所做的是正确的.

    Eigen::Matrix< simFloat, 3, 1> rpy = orientation.toRotationMatrix().eulerAngles(0,1,2);
    const double r = ((double)rpy(0));
    const double p = ((double)rpy(1));
    const double y = ((double)rpy(2));
Run Code Online (Sandbox Code Playgroud)

那是对的吗?因为我在这里阅读:http: //eigen.tuxfamily.org/dox/group__Geometry__Module.html#gad118fececd448d7485ffea4858775e5a

当我在描述的最后说明在哪个区间定义角度时,我有点困惑.

c++ matrix euler-angles eigen rotational-matrices

8
推荐指数
2
解决办法
2万
查看次数

3D 旋转分布的平均值和测量

我见过几个类似的问题,并对我可能尝试的内容有一些想法,但我不记得看到过任何有关传播的内容。

所以:我正在开发一个测量系统,最终基于计算机视觉。

我进行 N 个捕获,并使用一个库来处理它们,该库以平移和旋转的 4x4 仿射变换矩阵的形式输出姿势估计。

这些姿势估计中有一些噪音。每个旋转轴的欧拉角的标准偏差小于 2.5 度,因此所有方向都非常接近(对于所有欧拉角都接近 0 或 180 的情况)。小于 0.25 度的标准误差对我来说很重要。但我已经遇到了欧拉角特有的问题。

我想对所有这些非常接近的姿势估计进行平均以获得单个最终姿势估计。我还想找到一些传播的衡量标准,以便我可以估计准确性。

我知道“平均”对于轮换实际上并没有很好的定义。

(郑重声明,我的代码是使用 Numpy 的 Python 编写的。)

我也可能想对这个平均值进行加权,因为已知某些捕获(和某些轴)比其他捕获更准确。

我的印象是,我可以只取平移向量的平均值和标准差,对于旋转,我可以转换为四元数,取平均值,并以良好的精度重新归一化,因为这些四元数非常接近。

我还听说过所有四元数中的最小二乘法,但我对如何实现这一点的大部分研究都以惨败告终。

这可行吗?在这种情况下是否有一个合理明确的传播衡量标准?

geometry quaternions affinetransform rotational-matrices pose-estimation

8
推荐指数
1
解决办法
2921
查看次数