Jud*_*eMH 7 c++ linux macos performance sdl
我正在开发一个使用 SDL2 呈现的单线程图形程序。有关较小示例,请参见结尾。
它可以在旧的 Linux 机器和不太旧的 Mac 上运行。Linux 计算机有 1.60GHz 的处理器,而 Mac 的处理器是 2.2GHz。Linux 上的 SDL 版本是 2.0.8,而 Mac 上的 SDL 版本是 2.0.10。在两台计算机上,我都clang++使用优化标志-O3和-flto. 我调用了可执行文件./intergrid -fullscreen -pixel-size 3(本质上,我让程序绘制了很多像素。)
出于某种原因,较慢的 Linux 计算机毫不费力地执行了该程序,而 Mac 则需要几秒钟才能渲染第一帧。正如预期的那样,当我使用-no-draw标志禁用图形时,Mac 比 Linux 机器快。
编辑:Linux 计算机具有用于图形的“Intel Haswell Mobile”,而 Mac 则列出“Intel Iris Pro 1536 MB”。
这是一个最小的可重现示例:
#include <SDL2/SDL.h>
#include <stdio.h>
int main(void)
{
SDL_Init(SDL_INIT_VIDEO | SDL_INIT_TIMER);
SDL_Window *window = SDL_CreateWindow(
"Example",
SDL_WINDOWPOS_UNDEFINED, SDL_WINDOWPOS_UNDEFINED,
0, 0,
SDL_WINDOW_SHOWN);
SDL_SetWindowFullscreen(window, SDL_WINDOW_FULLSCREEN_DESKTOP);
SDL_Renderer *renderer = SDL_CreateRenderer(window, -1, 0);
SDL_Rect viewport;
SDL_RenderGetViewport(renderer, &viewport);
// The screen is not rendered to unless this is done:
SDL_Event event;
while (SDL_PollEvent(&event))
;
Uint32 ticks_before = SDL_GetTicks();
for (int x = 0; x < viewport.w - 10; x += 10) {
for (int y = 0; y < viewport.h - 10; y += 10) {
// I just chose a random visual effect for this example.
SDL_Rect square;
square.x = x;
square.y = y;
square.w = 10;
square.h = 10;
SDL_SetRenderDrawColor(renderer, x % 256, y % 256, 255, 255);
SDL_RenderFillRect(renderer, &square);
}
}
Uint32 ticks_after = SDL_GetTicks();
printf("Ticks taken to render: %u\n", ticks_after - ticks_before);
SDL_RenderPresent(renderer);
SDL_Delay(500);
// I Won't worry about cleaning stuff up.
}
Run Code Online (Sandbox Code Playgroud)
我在 Mac 和 Linux 上用clang++ -O3 -flto <filename> -lSDL2. 当我在 Mac 上运行该程序时,它打印出:
Ticks taken to render: 849
Run Code Online (Sandbox Code Playgroud)
Linux 上的程序打印:
Ticks taken to render: 4
Run Code Online (Sandbox Code Playgroud)
这是一个巨大的差异!
@keltar 找到了一个对我来说足够好的解决方案,但他们尚未将其发布为答案,所以我会发布。出于某种原因,SDL2 的 Metal 后端非常慢,因此解决方案是使用 OpenGL 后端。我通过调用来完成这个SDL_SetHint(SDL_HINT_RENDER_DRIVER, "opengl"),如果我发现默认的驱动程序是金属(使用SDL_GetRendererInfo)。