OpenVINO 工作流程



本章我們將學習 OpenVINO 的工作流程以及讀取、編譯和轉換 OpenVINO 的方法。

OpenVINO 工作流程

以下是 OpenVINO 工具包的分步步驟(工作流程):

步驟 1:規劃和設定

確定必要的配置。然後,識別模型型別和框架。

步驟 2:選擇模型

在此步驟中,從 Open Model Zoo 查詢或訓練模型,然後檢查模型是否足夠準確。如果模型不夠準確,請重新訓練。

步驟 3:修改

執行模型最佳化器將模型轉換為中間表示,並檢查模型是否成功轉換。如果失敗,請修復錯誤或建立自定義層。如果仍然無法解決,請聯絡英特爾支援或嘗試其他模型。現在,我們將進入下一步:調優。

步驟 4:調優

現在,在模型上執行推理引擎,並檢查其速度是否足夠快且精度可以接受。如果不行,請嘗試對模型進行高階調優。如果高階調優仍然無效,請嘗試基於硬體的干預或訓練擴充套件。

步驟 5:部署

在此步驟中,將模型整合到管道或應用程式中。準備好包後,只需部署應用程式和模型即可。

讀取、編譯和轉換模型

以下是用於轉換、讀取和編譯的模型。

Read_model

  • 從檔案中構建 ov.Model。
  • 支援的檔案格式:ONNX、OpenVINO IR、PaddlePaddle、TensorFlow Lite 和 TensorFlow。不支援直接使用 PyTorch 檔案。
  • 直接讀取 OpenVINO 檔案,其他格式會自動轉換。

Compile_model

  • 從檔案或 ov.Model 物件構建 ov.CompiledModel。
  • 支援的檔案格式:OpenVINO IR、ONNX、
  • PaddlePaddle、TensorFlow 和 TensorFlow Lite。不支援直接使用 PyTorch 檔案。
  • 直接讀取 OpenVINO 檔案,其他格式會自動轉換。

Convert_model

  • 從檔案或 Python 記憶體物件構建 ov.Model。
  • 支援的檔案格式為 PaddlePaddle、ONNX、TensorFlow Lite 和 TensorFlow。
  • 支援的框架物件:TensorFlow、PaddlePaddle 和 PyTorch。
  • 此過程僅在 Python API 中可用。
  • 將 ov.Model 儲存為 OpenVINO IR 格式。
  • 預設情況下將權重壓縮為 FP16。
  • 此過程僅在 Python API 中可用。
廣告
© . All rights reserved.