量子化された推論モデルとリファレンス結果を生成するには、次の手順に従います。
- 次のコマンドを実行してモデルを量子化することにより、量子化された推論モデルを生成します。
python resnet18_quant.py --quant_mode calib --subset_len 200
-
export_xmodel API で deploy_check を True に設定します。
quantizer.export_xmodel(deploy_check=True)
- 次のコマンドを実行してリファレンス データを生成することにより、リファレンス結果を生成します。
python resnet18_quant.py --quant_mode test --deploy
- 次のコマンドを実行して DPU の xmodel ファイルを生成することにより、DPU の XMODEL を生成します。
vai_c_xir -x /PATH/TO/quantized.xmodel -a /PATH/TO/ arch.json -o /OUTPUTPATH -n netname}
- DPU の推論結果を生成します。
この手順は、TensorFlow ワークフローの手順と同じです。
- リファレンス結果と DPU 推論結果をクロスチェックする。
この手順は、TensorFlow ワークフローの手順と同じです。