是否可以等待从暂存缓冲区完成的传输而无需调用vkQueueWaitIdle

Kaz*_*uya 4 c++ vulkan

下面的代码向您展示如何将顶点缓冲区数据从登台缓冲区传输到本地内存缓冲区:

bool Vulkan::UpdateVertexBuffer(std::vector<VERTEX>& data, VULKAN_BUFFER& vertex_buffer)
{
    std::memcpy(this->staging_buffer.pointer, &data[0], vertex_buffer.size);

    size_t flush_size = static_cast<size_t>(vertex_buffer.size);
    unsigned int multiple = static_cast<unsigned int>(flush_size / this->physical_device.properties.limits.nonCoherentAtomSize);
    flush_size = this->physical_device.properties.limits.nonCoherentAtomSize * ((uint64_t)multiple + 1);

    VkMappedMemoryRange flush_range = {};
    flush_range.sType = VK_STRUCTURE_TYPE_MAPPED_MEMORY_RANGE;
    flush_range.pNext = nullptr;
    flush_range.memory = this->staging_buffer.memory;
    flush_range.offset = 0;
    flush_range.size = flush_size;
    vkFlushMappedMemoryRanges(this->device, 1, &flush_range);

    VkResult result = vkWaitForFences(this->device, 1, &this->transfer.fence, VK_FALSE, 1000000000);
    if(result != VK_SUCCESS) {
        #if defined(_DEBUG)
        std::cout << "UpdateVertexBuffer => vkWaitForFences : Timeout" << std::endl;
        #endif
        return false;
    }
    vkResetFences(this->device, 1, &this->transfer.fence);

    VkCommandBufferBeginInfo command_buffer_begin_info = {};
    command_buffer_begin_info.sType = VK_STRUCTURE_TYPE_COMMAND_BUFFER_BEGIN_INFO;
    command_buffer_begin_info.pNext = nullptr; 
    command_buffer_begin_info.flags = VK_COMMAND_BUFFER_USAGE_ONE_TIME_SUBMIT_BIT;
    command_buffer_begin_info.pInheritanceInfo = nullptr;

    vkBeginCommandBuffer(this->transfer.command_buffer, &command_buffer_begin_info);

    VkBufferCopy buffer_copy_info = {};
    buffer_copy_info.srcOffset = 0;
    buffer_copy_info.dstOffset = 0;
    buffer_copy_info.size = vertex_buffer.size;

    vkCmdCopyBuffer(this->transfer.command_buffer, this->staging_buffer.handle, vertex_buffer.handle, 1, &buffer_copy_info);

    VkBufferMemoryBarrier buffer_memory_barrier = {};
    buffer_memory_barrier.sType = VK_STRUCTURE_TYPE_BUFFER_MEMORY_BARRIER;
    buffer_memory_barrier.pNext = nullptr;
    buffer_memory_barrier.srcAccessMask = VK_ACCESS_MEMORY_WRITE_BIT;
    buffer_memory_barrier.dstAccessMask = VK_ACCESS_VERTEX_ATTRIBUTE_READ_BIT;
    buffer_memory_barrier.srcQueueFamilyIndex = this->queue_stack[this->transfer_stack_index].index;
    buffer_memory_barrier.dstQueueFamilyIndex = this->queue_stack[this->graphics_stack_index].index;
    buffer_memory_barrier.buffer = vertex_buffer.handle;
    buffer_memory_barrier.offset = 0;
    buffer_memory_barrier.size = VK_WHOLE_SIZE;

    vkCmdPipelineBarrier(this->transfer.command_buffer, VK_PIPELINE_STAGE_TRANSFER_BIT, VK_PIPELINE_STAGE_VERTEX_INPUT_BIT, 0, 0, nullptr, 1, &buffer_memory_barrier, 0, nullptr);

    vkEndCommandBuffer(this->transfer.command_buffer);

    VkSubmitInfo submit_info = {};
    submit_info.sType = VK_STRUCTURE_TYPE_SUBMIT_INFO;
    submit_info.pNext = nullptr;
    submit_info.waitSemaphoreCount = 0;
    submit_info.pWaitSemaphores = nullptr;
    submit_info.pWaitDstStageMask = nullptr;
    submit_info.commandBufferCount = 1;
    submit_info.pCommandBuffers = &this->transfer.command_buffer;
    submit_info.signalSemaphoreCount = 0;
    submit_info.pSignalSemaphores = nullptr;

    VkResult result = vkQueueSubmit(this->queue_stack[this->transfer_stack_index].handle, 1, &submit_info, this->transfer.fence);
    if(result != VK_SUCCESS) {
        #if defined(_DEBUG)
        std::cout << "UpdateVertexBuffer => vkQueueSubmit : Failed" << std::endl;
        #endif
        return false;
    }

    #if defined(_DEBUG)
    std::cout << "UpdateVertexBuffer : Success" << std::endl;
    #endif
    return true;
}
Run Code Online (Sandbox Code Playgroud)

它完美运行而无需任何验证层警告。但是,当我两次呼叫我时,两个缓冲区都包含来自第二次呼叫的相同数据。例如 :

UpdateVertexBuffer(cube_data, cube_buffer);
UpdateVertexBuffer(prism_data, prism_buffer);
Run Code Online (Sandbox Code Playgroud)

这将导致在cube_buffer和pyramid_buffer内部都具有一个棱镜。为了解决这个问题,我可以在两个调用之间简单地等待几毫秒:

UpdateVertexBuffer(cube_data, cube_buffer);
std::this_thread::sleep_for(std::chrono::milliseconds(100));
UpdateVertexBuffer(prism_data, prism_buffer);
Run Code Online (Sandbox Code Playgroud)

或者最好是我可以打电话给 vkQueueWaitIdle(this->queue_stack[this->transfer_stack_index].handle);

在我看来,这将导致性能下降,而篱笆应该是等待传输操作正确完成的最佳方法,因此,当我使用篱笆时,为什么我的第一个缓冲区被第二个缓冲区填充?有没有一种方法可以正确地执行此操作而不使用vkQueueWaitIdle

谢谢你的帮助。

Nic*_*las 5

将数据写入临时缓冲区之后,您需要等待上一次上传的操作。为时已晚;栅栏在那里防止您将数据写入正在读取的内存中。

但是实际上,您的问题是您的设计是错误的。您的设计应使顺序更新都使用相同的内存。他们不应该。相反,顺序更新应使用同一内存的不同区域,以便它们不能重叠。这样,您可以执行传输,而不必完全在栅栏上等待(或至少等到下一帧)。

基本上,您应该将分段缓冲区视为环形缓冲区。想要执行某些分阶段传输工作的每个操作都应从分阶段环形缓冲区“分配” X字节的内存。分段缓冲系统按顺序分配内存,如果空间不足,则将其环绕。但它也记住与之同步的最后一个存储区域在哪里。如果尝试分阶段进行过多工作,则必须进行同步。

另外,映射内存的目的之一是您可以直接写入该内存,而不用写入其他CPU内存并复制到其中。因此VULKAN_BUFFER,生成数据的过程无需传递(无论是什么)本应获取指向活动登台缓冲区区域的指针,并将其数据写入该区域。

哦,还有一两件事:永远,永远创造一个命令缓冲区,并立即提交。只是不要这样做。有一个原因vkQueueSubmit可以同时使用多个命令缓冲区和多个批次的命令缓冲区。对于任何一个队列,您每帧都不应提交多次(或两次以上)。

  • @VladimirNazarenko:Vulkan规范本身说:“提交可能是一项高开销的操作,应用程序应尝试将批处理工作分批处理,以尽可能少地调用`vkQueueSubmit`。” (2认同)