比如说,我想要一个 lambda 函数来使用经过训练的模型来预测传入的消息类别。但是,该模型过大(~ 1GB)。
使用当前的架构,我应该将训练好的模型上传到 AWS S3,然后在每次触发 lambda 时加载它。这是不可取的,因为大部分时间都在加载模型。
一些解决方案:
或者,我怀疑 AWS 会缓存该文件,因此下次加载时间可能会更短?
aws-lambda
aws-lambda ×1