2023年09月06日 更新

Model Optimizerを用いて、モデル変換を行う

どうも、クラゲジュニアです。

Intel社が提供しているOpenVINOにおいて、学習済みモデルはIR(Intermediate Representation)という形式で推論を行うことができます。TensorflowやCaffeなど他の学習済みモデルの形式の場合は、OpenVINOツールキットに入っているModel Optimizerを用いてIR形式に変換します。

今回は、Tensorflowで学習したMobileNetモデルの変換をCPUで行う例にて説明します。

方法

 python "$directory_name"/deployment_tools/model_optimizer/mo_tf.py 
  --saved_model_dir "$directory_with_model" 
  --input_shape [1,224,224,3]
  --scale_values=[127.5,127.5,127.5]
  --mean_values=[127.5,127.5,127.5]
  --data_type FP32


SavedModel形式の場合、"$directory_with_model"は、以下の構成になっています。

assets/
assets.extra/
variables/
saved_model.pb

参考記事

以上です。