SageMaker - 部署机器学习模型



在训练完模型后,下一步是将其部署以进行预测。Amazon SageMaker 允许您将模型实时部署到 SageMaker 端点或对大型数据集执行批量推理。部署后,您可以轻松地将机器学习模型集成到生产应用程序中。

将模型部署到 SageMaker 端点

使用 Amazon SageMaker 部署模型是一项非常简单的任务。训练后,您可以将模型部署到实时端点。然后,此端点将允许您执行实时预测。让我们看看下面的步骤 -

步骤 1:部署模型

模型训练完成后,您可以使用 deploy 方法创建用于实时推理的端点,如下所示 -

# Deploy the model to a SageMaker endpoint
predictor = xgboost.deploy(initial_instance_count=1, instance_type="ml.m4.xlarge")

# Perform real-time inference
result = predictor.predict([[5.1, 3.5, 1.4, 0.2]])
print(result)

在上面的示例中,模型被部署到 ml.m4.xlarge 实例。部署后,您可以使用 predict 方法对新数据执行推理。

步骤 2:监控端点

SageMaker 会自动为您管理端点。您可以使用 SageMaker 仪表板监控端点的性能并根据您的需要对其进行扩展。SageMaker 还支持基于流量的自动扩展。

使用 Amazon SageMaker 进行批量推理

SageMaker 具有批量推理功能,当您需要对不需要实时响应的大型数据集进行预测时,此功能非常有用。在这种情况下,SageMaker 会分批处理数据并将结果输出到 S3 存储桶。

请按照以下步骤操作 -

步骤 1:配置转换器

训练后,您可以创建一个 Transformer 对象来执行批量推理,如下所示 -

# Configure the transformer
transformer = xgboost.transformer(
    instance_count=1, instance_type="ml.m4.xlarge", output_path="s3://your-bucket/batch-output"
)

# Perform batch inference
transformer.transform(data="s3://your-bucket/batch-input", content_type="text/csv", split_type="Line")

步骤 2:运行批量作业

SageMaker 将在存储在 S3 中的指定数据集上运行批量推理作业。结果将保存到 S3 存储桶中的 output_path。

广告