PyTorch ワークフロー - 3.5 日本語

Vitis AI ユーザー ガイド (UG1414)

Document ID
UG1414
Release Date
2023-09-28
Version
3.5 日本語

量子化された推論モデルとリファレンス結果を生成するには、次の手順に従います。

  1. 次のコマンドを実行してモデルを量子化することにより、量子化された推論モデルを生成します。
    python resnet18_quant.py --quant_mode calib --subset_len 200
  2. export_xmodel API で deploy_checkTrue に設定します。
    quantizer.export_xmodel(deploy_check=True)
  3. 次のコマンドを実行してリファレンス データを生成することにより、リファレンス結果を生成します。
    python resnet18_quant.py --quant_mode test  --deploy
  4. 次のコマンドを実行して DPU の xmodel ファイルを生成することにより、DPU の XMODEL を生成します。
    vai_c_xir -x /PATH/TO/quantized.xmodel -a /PATH/TO/
    arch.json -o /OUTPUTPATH -n netname}
  5. DPU の推論結果を生成します。

    この手順は、TensorFlow ワークフローの手順と同じです。

  6. リファレンス結果と DPU 推論結果をクロスチェックする。

    この手順は、TensorFlow ワークフローの手順と同じです。