SageMaker - 部署機器學習模型



在訓練完模型後,下一步是將其部署以進行預測。Amazon SageMaker 允許您將模型即時部署到 SageMaker 端點或對大型資料集執行批次推理。部署後,您可以輕鬆地將機器學習模型整合到生產應用程式中。

將模型部署到 SageMaker 端點

使用 Amazon SageMaker 部署模型是一項非常簡單的任務。訓練後,您可以將模型部署到即時端點。然後,此端點將允許您執行即時預測。讓我們看看下面的步驟 -

步驟 1:部署模型

模型訓練完成後,您可以使用 deploy 方法建立用於即時推理的端點,如下所示 -

# Deploy the model to a SageMaker endpoint
predictor = xgboost.deploy(initial_instance_count=1, instance_type="ml.m4.xlarge")

# Perform real-time inference
result = predictor.predict([[5.1, 3.5, 1.4, 0.2]])
print(result)

在上面的示例中,模型被部署到 ml.m4.xlarge 例項。部署後,您可以使用 predict 方法對新資料執行推理。

步驟 2:監控端點

SageMaker 會自動為您管理端點。您可以使用 SageMaker 儀表板監控端點的效能並根據您的需要對其進行擴充套件。SageMaker 還支援基於流量的自動擴充套件。

使用 Amazon SageMaker 進行批次推理

SageMaker 具有批次推理功能,當您需要對不需要即時響應的大型資料集進行預測時,此功能非常有用。在這種情況下,SageMaker 會分批處理資料並將結果輸出到 S3 儲存桶。

請按照以下步驟操作 -

步驟 1:配置轉換器

訓練後,您可以建立一個 Transformer 物件來執行批次推理,如下所示 -

# Configure the transformer
transformer = xgboost.transformer(
    instance_count=1, instance_type="ml.m4.xlarge", output_path="s3://your-bucket/batch-output"
)

# Perform batch inference
transformer.transform(data="s3://your-bucket/batch-input", content_type="text/csv", split_type="Line")

步驟 2:執行批次作業

SageMaker 將在儲存在 S3 中的指定資料集上執行批次推理作業。結果將儲存到 S3 儲存桶中的 output_path。

廣告
© . All rights reserved.