如何从视图投影矩阵检索相机原点/位置?(OpenGL)

Ged*_*nas 2 c++ opengl frustum projection-matrix glm-math

有没有办法从视图投影矩阵中检索相机原点/位置?(OpenGL)

我正在尝试绘制相机的截锥体,并且计算远平面平面的角没有问题。

但我不知道如何检索代表相机原点的点。

我期望通过乘以同质剪切空间坐标来检索它:

glm::vec4(0.f, 0.f, 0.f, 1.f)
Run Code Online (Sandbox Code Playgroud)

但我发现有点像~倒置的相机位置。(在屏幕截图中标记为X)包含以下所有源代码。

在此输入图像描述

    // Homogeneous points for source cube in clip-space.
    std::array<glm::vec4, 9> corners =
    {
        // Far plane
        glm::vec4(-1.f,-1.f, 1.f, 1.f), // bottom-left
        glm::vec4( 1.f,-1.f, 1.f, 1.f), // bottom-right
        glm::vec4( 1.f, 1.f, 1.f, 1.f), // top-right
        glm::vec4(-1.f, 1.f, 1.f, 1.f), // top-left

        // Near plane
        glm::vec4(-1.f,-1.f,-1.f, 1.f), // bottom-left
        glm::vec4( 1.f,-1.f,-1.f, 1.f), // bottom-right
        glm::vec4( 1.f, 1.f,-1.f, 1.f), // top-right
        glm::vec4(-1.f, 1.f,-1.f, 1.f), // top-left

        // Camera/screen center position.
    //  glm::vec4(0.f, 0.f, 0.f, 1.f) // EDIT
        glm::vec4(0.f, 0.f,-1.f, 0.f) // SOLVED
    };

    const auto invMatrix(glm::inverse(viewProjectionMatrix));

    for (U32 i = 0; i < corners.size(); i++)
    {
        corners[i] = invMatrix * corners[i]; // 4x4 * 4x1 matrix/vector multiplication.
        corners[i] /= corners[i].w; // Homogeneous to euclidean/cartesian conversion
    }

    // Far plane.
    this->AddLine(corners[0], corners[1], rColor);
    this->AddLine(corners[1], corners[2], rColor);
    this->AddLine(corners[2], corners[3], rColor);
    this->AddLine(corners[3], corners[0], rColor);

    // Near plane.
    this->AddLine(corners[4], corners[5], rColor);
    this->AddLine(corners[5], corners[6], rColor);
    this->AddLine(corners[6], corners[7], rColor);
    this->AddLine(corners[7], corners[4], rColor);

    // Connection from Near rectangle to the Far rectangle.
    this->AddLine(corners[0], corners[4], rColor);
    this->AddLine(corners[1], corners[5], rColor);
    this->AddLine(corners[2], corners[6], rColor);
    this->AddLine(corners[3], corners[7], rColor);

    // X
    this->AddLine(corners[4], corners[8], rColor);
    this->AddLine(corners[5], corners[8], rColor);
    this->AddLine(corners[6], corners[8], rColor);
    this->AddLine(corners[7], corners[8], rColor);
Run Code Online (Sandbox Code Playgroud)

[解决了]

问题是我需要使用glm::vec4(0.f, 0.f,-1.f, 0.f)而不是glm::vec4(0.f, 0.f, 0.f, 1.f).

以下是期望的结果:在此输入图像描述

der*_*ass 6

在一般情况下,如果只有一个组合viewProjection矩阵,则无法从中推断出相机原点。您将需要更多信息。

如果您知道您的投影是正交的(或实际上任何类型的平行投影),则无论如何都没有有意义的相机位置概念,并且原点只是您选择的某个(或多或少)任意点。viewProjection要重建它,您需要将投影分解为view和 的参数projection。与完整构建相比,可能有一些捷径,proj但这取决于您可能提前知道/可以假设的实际投影参数的属性。

在透视投影的情况下,情况实际上更简单:投影中心将被投影到无穷远的某个点,但我们确切地知道它在齐次裁剪空间中的位置。它仅proj * vec4(0,0,0,1)适用于典型的投影矩阵,即 的最后一列proj。假设默认 GL 约定,这将类似于(0, 0, alpha, 0). alpha 的绝对值并不重要,因为这只是一个方向,只有符号才重要。同样,假设默认的 GL 约定,alpha 实际上是负数,因此投影中心将变换到(0,0,-1,0)剪辑空间中。因此,您可以简单地反转计算并从剪辑空间回到世界空间:p_center = inverse(viewProj) * vec4(0,0,-1,0)。不要忘记结果仍然是齐次坐标,因此您需要除以结果w才能获得有意义的 3D 坐标。