有没有办法从 triton 推理服务器获取 config.pbtxt 文件

Raj*_*ram 6 nvidia machine-learning deep-learning triton tritonserver

最近,我在运行推理服务器时遇到了 triton 服务配置文件禁用标志“--strict-model-config=false”的解决方案。这将允许在从模型存储库加载模型时创建自己的配置文件。

sudo docker run --rm --net=host -p 8000:8000 -p 8001:8001 -p 8002:8002 \
-v /home/rajesh/custom_repository:/models nvcr.io/nvidia/tritonserver:22.06-py3 \
tritonserver --model-repository=/models --strict-model-config=false
Run Code Online (Sandbox Code Playgroud)

我想从 Triton 推理服务器获取生成的配置文件,因为我们可以使用批处理配置和其他参数。有没有办法获取我在服务器中加载的模型的内置生成的 config.pbtxt 文件,以便我可以调整批量大小和其他参数。

Raj*_*ram 3

根据 Triton 文档(source),可以通过curl'ing/config端点找到加载的模型配置:

命令:

curl localhost:8000/v2/models/<model_name>/config
Run Code Online (Sandbox Code Playgroud)

[来源]