Vai_q_PyTorch は、量子化の結果に問題や不完全さをもたらす可能性がある場合、エラーを表示します (詳細はメッセージ テキストを参照)。この種のメッセージの形式は「[VAIQ_ERROR][MESSAGE_ID]: メッセージ テキスト」です。
次の表に重要なエラー メッセージをまとめます。
メッセージ ID | 説明 |
---|---|
QUANTIZER_TORCH_BIAS_CORRECTION | 量子化結果ディレクトリ内のバイアス補正ファイルが現在のモデルと一致しません。 |
QUANTIZER_TORCH_CALIB_RESULT_MISMATCH | テンソルの量子化ステップをロードする際にノード名の不一致が見つかりました。vai_q_pytorch のバージョンと PyTorch のバージョンがテスト モードとキャリブレーション (または QAT トレーニング) モードで同じであることを確認してください。 |
QUANTIZER_TORCH_EXPORT_ONNX | PyTorch 内部エラーにより、量子化されたモジュール (PyTorch トレース済みモデルに基づく) を ONNX にエクスポートできません。PyTorch 内部エラーの理由は、メッセージに記載されています。浮動小数点モデル コードの調整が必要なことがあります。 |
QUANTIZER_TORCH_EXPORT_XMODEL | グラフを XMODEL に変換できませんでした。メッセージの内容を参照してください。 |
QUANTIZER_TORCH_FAST_FINETINE | 高速微調整パラメーター ファイルが存在しません。モデル コードで load_ft_param を呼び出してロードしてください。 |
QUANTIZER_TORCH_FIX_INPUT_TYPE | ONNX フォーマット モデルのエクスポート時に、量子化 OP の引数のデータ型または値が正しくありません。 |
QUANTIZER_TORCH_ILLEGAL_BITWIDTH | テンソル量子化の設定が正しくありません。メッセージに記載された範囲内の整数とする必要があります。 |
QUANTIZER_TORCH_IMPORT_KERNEL | vai_q_PyTorch ライブラリ ファイルのインポート エラー。PyTorch のバージョンが vai_q_pytorch のバージョン (PyTorch_nndct.__version__) と一致しているか確認してください。 |
QUANTIZER_TORCH_NO_CALIB_RESULT | 量子化結果ファイルが存在しません。キャリブレーションが完了しているか確認してください。 |
QUANTIZER_TORCH_NO_CALIBRATION | 量子化キャリブレーションが正常に実行されません。モジュールの FORWARD 関数が呼び出されているか確認してください。torch_quantizer.quant_model のフォワード関数は、ユーザー コードで明示的に呼び出す必要があります。https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py のサンプル コードを参照してください。 |
QUANTIZER_TORCH_NO_FORWARD | 量子化結果をエクスポートする前に torch_quantizer.quant_model の FORWARD 関数を呼び出す必要があります。https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py のサンプル コードを参照してください。 |
QUANTIZER_TORCH_OP_REGIST | このタイプの OP は複数回登録できません。 |
QUANTIZER_TORCH_PYTORCH_TRACE | モデルおよび入力引数から PyTorch トレース グラフを取得できませんでした。PyTorch 内部エラーの理由は、メッセージに記載されています。浮動小数点モデル コードの調整が必要なことがあります。 |
QUANTIZER_TORCH_QUANT_CONFIG | 量子化の設定項目が正しくありません。メッセージの内容を参照してください。 |
QUANTIZER_TORCH_SHAPE_MISMATCH | テンソル形状が一致しません。メッセージの内容を参照してください。 |
QUANTIZER_TORCH_TORCH_VERSION | Pytorch バージョンがこの関数でサポートされていないか、vai_q_PyTorch バージョン (PyTorch_nndct.__version__) と一致しません。メッセージの内容を参照してください。 |
QUANTIZER_TORCH_XMODEL_BATCHSIZE | XMODEL をエクスポートする場合、バッチ サイズは 1 とする必要があります。 |
QUANTIZER_TORCH_INSPECTOR_OUTPUT_FORMAT | インスペクターは SVG または PNG フォーマットのダンプしかサポートしていません。 |
QUANTIZER_TORCH_INSPECTOR_INPUT_FORMAT | インスペクターは現在フィンガープリントをサポートしていません。アーキテクチャ名を指定してください。 |
QUANTIZER_TORCH_UNSUPPORTED_OPS | この OP の量子化はサポートされていません。 |
QUANTIZER_TORCH_TRACED_NOT_SUPPORT | torch.jit.script で生成されるモデルは、vai_q_PyTorch ではサポートされません。 |
QUANTIZER_TORCH_NO_SCRIPT_MODEL | vai_q_PyTorch がスクリプト モデルを見つけることができませんでした。 |
QUANTIZER_TORCH_REUSED_MODULE | 量子化されたモジュールがフォワード パス内で複数回呼び出されました。量子化されたパラメーターを複数回の呼び出しで使用する場合は、「allow_reused_module=True」を付けて trainable_model を呼び出してください。 |
QUANTIZER_TORCH_DATA_PARALLEL_NOT_ALLOWED | torch.nn.DataParallel オブジェクトは許可されていません。 |
QUANTIZER_TORCH_INPUT_NOT_QUANTIZED | 入力が量子化されていません。QuantStub/DeQuantStub を使用して量子化範囲を定義してください。 |
QUANTIZER_TORCH_NOT_A_MODULE | 量子化された演算は、「torch.nn.Module」のインスタンスである必要があります。関数を「torch.nn.Module」オブジェクトに置き換えてください。元のソース範囲はメッセージに記載されています。 |
QUANTIZER_TORCH_QAT_PROCESS_ERROR | 運用可能モデルを取得する前に trainable_model を呼び出す必要があります。 |
QUANTIZER_TORCH_QAT_DEPLOYABLE_MODEL_ERROR | 入力されたトレーニング済みモデルは BN と CONV が融合しており、運用可能モデルに変換できません。model.fuse_conv_bn() が呼び出されていないことを確認してください。 |
QUANTIZER_TORCH_XMODEL_DEVICE | XMODEL は、CPU モードでしかエクスポートできません。deployable_model(src_dir, used_for_XMODEL=True) を使用して CPU モデルを取得してください。 |