在烧瓶应用中使用uwsgi部署时,keras预测会陷入困境

Jac*_*eng 2 python flask uwsgi keras tensorflow

我有一个可在单元测试和本地烧瓶应用程序(烧瓶运行)中完美运行的keras模型。但是,当我在uwsgi中启动flask应用程序时,它因第二个请求而卡住,从而杀死了整个应用程序。这是因为uwsgi产生了多个进程吗?我该如何解决这个问题?谢谢。

Man*_*noj 5

我遇到了同样的问题,这可能不是理想的解决方法。但是我相信这是在多个进程中运行的Keras问题。

我正在使用uzy-apps = true运行uWSGI。

uwsgi --http 0.0.0.0:5000 --wsgi-file your_flask_server.py --callable app --processes 2 --threads 2 --stats 127.0.0.1:9191 --lazy-apps
Run Code Online (Sandbox Code Playgroud)

注意:通过延迟加载应用程序,这将消耗更多的内存,例如,将内存增加一倍,因为它会在每个线程/进程中再次加载整个应用程序

以下是一些使用完整链接: 相似问题相似问题

部署指南示例