如何使用 TensorFlow Serving 在 Python 中部署模型?


部署机器学习模型对于使 AI 应用发挥功能至关重要,为了有效地在生产环境中服务模型,TensorFlow Serving 提供了一种可靠的解决方案。当模型经过训练并准备好部署时,高效地服务模型以处理实时请求至关重要。TensorFlow Serving 是一个强大的工具,可以促进机器学习模型在生产环境中的顺利部署。

在本文中,我们将深入探讨使用 TensorFlow Serving 在 Python 中部署模型的步骤。

什么是模型部署?

模型部署是指使经过训练的机器学习模型可用于实时预测。这意味着将模型从开发环境转移到生产系统,以便它能够高效地处理传入的请求。TensorFlow Serving 是一个专门设计的、高性能的系统,专门用于部署机器学习模型。

设置 TensorFlow Serving

首先,我们需要在系统上安装 TensorFlow Serving。请按照以下步骤设置 TensorFlow Serving:

步骤 1:安装 TensorFlow Serving

首先使用包管理器 pip 安装 TensorFlow Serving。打开命令提示符或终端并输入以下命令:

pip install tensorflow-serving-api

步骤 2:启动 TensorFlow Serving 服务器

安装完成后,运行以下命令启动 TensorFlow Serving 服务器:

tensorflow_model_server --rest_api_port=8501 --model_name=my_model --model_base_path=/path/to/model/directory

将 **`/path/to/model/directory`** 替换为存储已训练模型的路径。

准备模型进行部署

在部署模型之前,需要将其保存为 TensorFlow Serving 可以理解的格式。请按照以下步骤准备模型进行部署:

以 SavedModel 格式保存模型

在 Python 脚本中,使用以下代码以 SavedModel 格式保存训练后的模型:

import tensorflow as tf

# Assuming `model` is your trained TensorFlow model
tf.saved_model.save(model, '/path/to/model/directory')

定义模型签名

模型签名提供有关模型的输入和输出张量的信息。使用 **`tf.saved_model.signature_def_utils.build_signature_def`** 函数定义模型签名。这是一个示例:

inputs = {'input': tf.saved_model.utils.build_tensor_info(model.input)}
outputs = {'output': tf.saved_model.utils.build_tensor_info(model.output)}

signature = tf.saved_model.signature_def_utils.build_signature_def(
   inputs=inputs,
   outputs=outputs,
   method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME
)

保存带有签名的模型

要保存带有签名的模型,请使用以下代码:

builder = tf.saved_model.builder.SavedModelBuilder('/path/to/model/directory')
builder.add_meta_graph_and_variables(
   sess=tf.keras.backend.get_session(),
   tags=[tf.saved_model.tag_constants.SERVING],
   signature_def_map={
      tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY: signature
   }
)
builder.save

()

使用 TensorFlow Serving 服务模型

现在我们的模型已准备好,可以使用 TensorFlow Serving 来服务它。请按照以下步骤操作:

与 TensorFlow Serving 建立连接

在 Python 脚本中,使用 gRPC 协议与 TensorFlow Serving 建立连接。这是一个示例:

from tensorflow_serving.apis import predict_pb2
from tensorflow_serving.apis import prediction_service_pb2_grpc

channel = grpc.insecure_channel('localhost:8501')
stub = prediction_service_pb2_grpc.PredictionServiceStub(channel)

创建请求

要进行预测,请创建一个请求 protobuf 消息,并指定模型名称和签名名称。这是一个示例:

request = predict_pb2.PredictRequest()
request.model_spec.name = 'my_model'
request.model_spec.signature_name = tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY
request.inputs['input'].CopyFrom(tf.contrib.util.make_tensor_proto(data, shape=data.shape))

将 **`data`** 替换为您想要进行预测的输入数据。

发送请求并获取响应

将请求发送到 TensorFlow Serving 并检索响应。这是一个示例:

response = stub.Predict(request, timeout_seconds)
output = tf.contrib.util.make_ndarray(response.outputs['output'])

**`timeout_seconds`** 参数指定等待响应的最长时间。

测试已部署的模型

为了确保已部署的模型正常运行,务必使用示例输入对其进行测试。以下是如何测试已部署的模型:

准备示例数据

创建一组与模型预期输入格式匹配的示例输入数据。

向已部署的模型发送请求

创建请求并将其发送到已部署的模型。

request = predict_pb2.PredictRequest()
request.model_spec.name = 'my_model'
request.model_spec.signature_name = tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY
request.inputs['input'].CopyFrom(tf.contrib.util.make_tensor_proto(data, shape=data.shape))

评估输出

将从已部署模型接收到的输出与预期输出进行比较。此步骤可确保模型正在进行准确的预测。

扩展和监控部署

随着对预测的需求增加,必须扩展部署以处理大量传入请求。此外,监控部署有助于跟踪已部署模型的性能和运行状况。考虑实施以下扩展和监控策略:

扩展

  • 使用多个 TensorFlow Serving 实例进行负载均衡。

  • 使用 Docker 和 Kubernetes 等平台进行容器化。

监控

  • 收集指标,例如请求延迟、错误率和吞吐量。

  • 为关键事件设置警报和通知。

示例

以下程序示例演示了如何使用 TensorFlow Serving 部署模型:

import tensorflow as tf
from tensorflow import keras

# Load the trained model
model = keras.models.load_model("/path/to/your/trained/model")

# Convert the model to the TensorFlow SavedModel format
export_path = "/path/to/exported/model"
tf.saved_model.save(model, export_path)

# Start the TensorFlow Serving server
import os
os.system("tensorflow_model_server --port=8501 --model_name=your_model --model_base_path={}".format(export_path))

在上面的示例中,您需要将“/path/to/your/trained/model”替换为已训练模型的实际路径。该模型将使用 Keras 的 **load_model()** 函数加载。

接下来,模型将转换为 TensorFlow SavedModel 格式,并保存在指定的 export_path 中。

然后使用 **os.system()** 函数启动 TensorFlow Serving 服务器,该函数执行 tensorflow_model_server 命令。此命令指定服务器端口、模型名称 (your_model) 和导出模型所在的基路径。

请确保已安装 TensorFlow Serving 并将文件路径替换为您系统的相应值。

预期输出

服务器成功启动后,即可准备提供预测服务。您可以使用另一个程序或 API 向服务器发送预测请求,服务器将根据加载的模型返回预测输出。

结论

总之,将机器学习模型部署到生产环境中非常重要,以便利用其预测能力。在本文中,我们探讨了使用 TensorFlow Serving 在 Python 中部署模型的过程。我们讨论了 TensorFlow Serving 的安装、准备模型进行部署、服务模型以及测试其性能。通过按照这些步骤,我们可以成功部署 TensorFlow 模型并进行精确的实时预测。

更新于:2023年7月11日

浏览量:187

启动您的职业生涯

通过完成课程获得认证

开始学习
广告