OpenVINO 工作流程



本章我们将学习 OpenVINO 的工作流程以及读取、编译和转换 OpenVINO 的方法。

OpenVINO 工作流程

以下是 OpenVINO 工具包的分步步骤(工作流程):

步骤 1:规划和设置

确定必要的配置。然后,识别模型类型和框架。

步骤 2:选择模型

在此步骤中,从 Open Model Zoo 查找或训练模型,然后检查模型是否足够准确。如果模型不够准确,请重新训练。

步骤 3:修改

运行模型优化器将模型转换为中间表示,并检查模型是否成功转换。如果失败,请修复错误或创建自定义层。如果仍然无法解决,请联系英特尔支持或尝试其他模型。现在,我们将进入下一步:调优。

步骤 4:调优

现在,在模型上运行推理引擎,并检查其速度是否足够快且精度可以接受。如果不行,请尝试对模型进行高级调优。如果高级调优仍然无效,请尝试基于硬件的干预或训练扩展。

步骤 5:部署

在此步骤中,将模型集成到管道或应用程序中。准备好包后,只需部署应用程序和模型即可。

读取、编译和转换模型

以下是用于转换、读取和编译的模型。

Read_model

  • 从文件中构建 ov.Model。
  • 支持的文件格式:ONNX、OpenVINO IR、PaddlePaddle、TensorFlow Lite 和 TensorFlow。不支持直接使用 PyTorch 文件。
  • 直接读取 OpenVINO 文件,其他格式会自动转换。

Compile_model

  • 从文件或 ov.Model 对象构建 ov.CompiledModel。
  • 支持的文件格式:OpenVINO IR、ONNX、
  • PaddlePaddle、TensorFlow 和 TensorFlow Lite。不支持直接使用 PyTorch 文件。
  • 直接读取 OpenVINO 文件,其他格式会自动转换。

Convert_model

  • 从文件或 Python 内存对象构建 ov.Model。
  • 支持的文件格式为 PaddlePaddle、ONNX、TensorFlow Lite 和 TensorFlow。
  • 支持的框架对象:TensorFlow、PaddlePaddle 和 PyTorch。
  • 此过程仅在 Python API 中可用。
  • 将 ov.Model 保存为 OpenVINO IR 格式。
  • 默认情况下将权重压缩为 FP16。
  • 此过程仅在 Python API 中可用。
广告
© . All rights reserved.