VAIQ_ERROR - 3.5 日本語

Vitis AI ユーザー ガイド (UG1414)

Document ID
UG1414
Release Date
2023-09-28
Version
3.5 日本語

Vai_q_PyTorch は、量子化の結果に問題や不完全さをもたらす可能性がある場合、エラーを表示します (詳細はメッセージ テキストを参照)。この種のメッセージの形式は「[VAIQ_ERROR][MESSAGE_ID]: メッセージ テキスト」です。

次の表に重要なエラー メッセージをまとめます。

表 1. Vai_q_PyTorch のエラー メッセージ
メッセージ ID 説明
QUANTIZER_TORCH_BIAS_CORRECTION 量子化結果ディレクトリ内のバイアス補正ファイルが現在のモデルと一致しません。 
QUANTIZER_TORCH_CALIB_RESULT_MISMATCH テンソルの量子化ステップをロードする際にノード名の不一致が見つかりました。vai_q_pytorch のバージョンと PyTorch のバージョンがテスト モードとキャリブレーション (または QAT トレーニング) モードで同じであることを確認してください。
QUANTIZER_TORCH_EXPORT_ONNX PyTorch 内部エラーにより、量子化されたモジュール (PyTorch トレース済みモデルに基づく) を ONNX にエクスポートできません。PyTorch 内部エラーの理由は、メッセージに記載されています。浮動小数点モデル コードの調整が必要なことがあります。
QUANTIZER_TORCH_EXPORT_XMODEL グラフを XMODEL に変換できませんでした。メッセージの内容を参照してください。
QUANTIZER_TORCH_FAST_FINETINE 高速微調整パラメーター ファイルが存在しません。モデル コードで load_ft_param を呼び出してロードしてください。
QUANTIZER_TORCH_FIX_INPUT_TYPE ONNX フォーマット モデルのエクスポート時に、量子化 OP の引数のデータ型または値が正しくありません。
QUANTIZER_TORCH_ILLEGAL_BITWIDTH テンソル量子化の設定が正しくありません。メッセージに記載された範囲内の整数とする必要があります。
QUANTIZER_TORCH_IMPORT_KERNEL vai_q_PyTorch ライブラリ ファイルのインポート エラー。PyTorch のバージョンが vai_q_pytorch のバージョン (PyTorch_nndct.__version__) と一致しているか確認してください。
QUANTIZER_TORCH_NO_CALIB_RESULT 量子化結果ファイルが存在しません。キャリブレーションが完了しているか確認してください。
QUANTIZER_TORCH_NO_CALIBRATION 量子化キャリブレーションが正常に実行されません。モジュールの FORWARD 関数が呼び出されているか確認してください。torch_quantizer.quant_model のフォワード関数は、ユーザー コードで明示的に呼び出す必要があります。https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py のサンプル コードを参照してください。
QUANTIZER_TORCH_NO_FORWARD 量子化結果をエクスポートする前に torch_quantizer.quant_model の FORWARD 関数を呼び出す必要があります。https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py のサンプル コードを参照してください。
QUANTIZER_TORCH_OP_REGIST このタイプの OP は複数回登録できません。
QUANTIZER_TORCH_PYTORCH_TRACE モデルおよび入力引数から PyTorch トレース グラフを取得できませんでした。PyTorch 内部エラーの理由は、メッセージに記載されています。浮動小数点モデル コードの調整が必要なことがあります。
QUANTIZER_TORCH_QUANT_CONFIG 量子化の設定項目が正しくありません。メッセージの内容を参照してください。
QUANTIZER_TORCH_SHAPE_MISMATCH テンソル形状が一致しません。メッセージの内容を参照してください。
QUANTIZER_TORCH_TORCH_VERSION Pytorch バージョンがこの関数でサポートされていないか、vai_q_PyTorch バージョン (PyTorch_nndct.__version__) と一致しません。メッセージの内容を参照してください。
QUANTIZER_TORCH_XMODEL_BATCHSIZE XMODEL をエクスポートする場合、バッチ サイズは 1 とする必要があります。
QUANTIZER_TORCH_INSPECTOR_OUTPUT_FORMAT インスペクターは SVG または PNG フォーマットのダンプしかサポートしていません。
QUANTIZER_TORCH_INSPECTOR_INPUT_FORMAT インスペクターは現在フィンガープリントをサポートしていません。アーキテクチャ名を指定してください。
QUANTIZER_TORCH_UNSUPPORTED_OPS この OP の量子化はサポートされていません。
QUANTIZER_TORCH_TRACED_NOT_SUPPORT torch.jit.script で生成されるモデルは、vai_q_PyTorch ではサポートされません。
QUANTIZER_TORCH_NO_SCRIPT_MODEL vai_q_PyTorch がスクリプト モデルを見つけることができませんでした。
QUANTIZER_TORCH_REUSED_MODULE 量子化されたモジュールがフォワード パス内で複数回呼び出されました。量子化されたパラメーターを複数回の呼び出しで使用する場合は、「allow_reused_module=True」を付けて trainable_model を呼び出してください。
QUANTIZER_TORCH_DATA_PARALLEL_NOT_ALLOWED torch.nn.DataParallel オブジェクトは許可されていません。
QUANTIZER_TORCH_INPUT_NOT_QUANTIZED 入力が量子化されていません。QuantStub/DeQuantStub を使用して量子化範囲を定義してください。
QUANTIZER_TORCH_NOT_A_MODULE 量子化された演算は、「torch.nn.Module」のインスタンスである必要があります。関数を「torch.nn.Module」オブジェクトに置き換えてください。元のソース範囲はメッセージに記載されています。
QUANTIZER_TORCH_QAT_PROCESS_ERROR 運用可能モデルを取得する前に trainable_model を呼び出す必要があります。
QUANTIZER_TORCH_QAT_DEPLOYABLE_MODEL_ERROR 入力されたトレーニング済みモデルは BN と CONV が融合しており、運用可能モデルに変換できません。model.fuse_conv_bn() が呼び出されていないことを確認してください。
QUANTIZER_TORCH_XMODEL_DEVICE XMODEL は、CPU モードでしかエクスポートできません。deployable_model(src_dir, used_for_XMODEL=True) を使用して CPU モデルを取得してください。