如何使用 AWS SageMaker Batch Transform 运行更大的批次

Lov*_*vro 2 xgboost amazon-sagemaker

我使用 AWS SageMaker 创建了一个 XGBoost 模型。现在我正在尝试通过 Batch Transform Job 使用它,并且对于小批量来说一切都很好。

但是,在一个约 16MB 的文件中有一批稍大的 600.000 行,我无法一次性运行它。我尝试了两件事:

1.

将转换作业的“最大负载大小”设置为其最大值 (100 MB):

transformer = sagemaker.transformer.Transformer(
    model_name = config.model_name,
    instance_count = config.inference_instance_count,
    instance_type = config.inference_instance_type,
    output_path = "s3://{}/{}".format(config.bucket, config.s3_inference_output_folder),
    sagemaker_session = sagemaker_session,
    base_transform_job_name = config.inference_job_prefix,
    max_payload = 100
    )
Run Code Online (Sandbox Code Playgroud)

但是,我仍然收到错误消息(通过控制台 CloudWatch 日志):

413 Request Entity Too Large
The data value transmitted exceeds the capacity limit.
Run Code Online (Sandbox Code Playgroud)

2.

将 max_payload 设置为 0,根据规范,Amazon SageMaker 应将其解释为对有效负载大小没有限制。

在这种情况下,作业成功完成,但输出文件为空(0 字节)。

任何想法我做错了什么,或者如何运行更大的批次?

小智 5

大多数 SageMaker 算法在 MaxPayloadInMB 中将自己的默认执行参数设置为 6 MB,因此如果您从 SageMaker 算法中获得 413,您可能会超过它们可以支持的最大有效负载。假设文件中的每一行小于 6 MB,您可以通过不设置 MaxPayloadInMB 以回退到算法的默认大小并将 SplitType 设置为“Line”来解决此问题,因此它可以将数据拆分为更小的批次(https:// docs.aws.amazon.com/sagemaker/latest/dg/API_TransformInput.html#SageMaker-Type-TransformInput-SplitType)。