- SageMaker 教程
- SageMaker - 首页
- SageMaker - 简介
- 如何设置 SageMaker?
- SageMaker - 构建机器学习模型
- SageMaker - 训练机器学习模型
- SageMaker - 部署机器学习模型
- SageMaker - 监控和优化
- SageMaker - 定价
- SageMaker 资源
- SageMaker - 快速指南
- SageMaker - 资源
- SageMaker - 讨论
SageMaker - 部署机器学习模型
在训练完模型后,下一步是将其部署以进行预测。Amazon SageMaker 允许您将模型实时部署到 SageMaker 端点或对大型数据集执行批量推理。部署后,您可以轻松地将机器学习模型集成到生产应用程序中。
将模型部署到 SageMaker 端点
使用 Amazon SageMaker 部署模型是一项非常简单的任务。训练后,您可以将模型部署到实时端点。然后,此端点将允许您执行实时预测。让我们看看下面的步骤 -
步骤 1:部署模型
模型训练完成后,您可以使用 deploy 方法创建用于实时推理的端点,如下所示 -
# Deploy the model to a SageMaker endpoint predictor = xgboost.deploy(initial_instance_count=1, instance_type="ml.m4.xlarge") # Perform real-time inference result = predictor.predict([[5.1, 3.5, 1.4, 0.2]]) print(result)
在上面的示例中,模型被部署到 ml.m4.xlarge 实例。部署后,您可以使用 predict 方法对新数据执行推理。
步骤 2:监控端点
SageMaker 会自动为您管理端点。您可以使用 SageMaker 仪表板监控端点的性能并根据您的需要对其进行扩展。SageMaker 还支持基于流量的自动扩展。
使用 Amazon SageMaker 进行批量推理
SageMaker 具有批量推理功能,当您需要对不需要实时响应的大型数据集进行预测时,此功能非常有用。在这种情况下,SageMaker 会分批处理数据并将结果输出到 S3 存储桶。
请按照以下步骤操作 -
步骤 1:配置转换器
训练后,您可以创建一个 Transformer 对象来执行批量推理,如下所示 -
# Configure the transformer transformer = xgboost.transformer( instance_count=1, instance_type="ml.m4.xlarge", output_path="s3://your-bucket/batch-output" ) # Perform batch inference transformer.transform(data="s3://your-bucket/batch-input", content_type="text/csv", split_type="Line")
步骤 2:运行批量作业
SageMaker 将在存储在 S3 中的指定数据集上运行批量推理作业。结果将保存到 S3 存储桶中的 output_path。
广告