VAIQ_WARN - 3.5 日本語

Vitis AI ユーザー ガイド (UG1414)

Document ID
UG1414
Release Date
2023-09-28
Version
3.5 日本語
Vai_q_pytorch は、量子化の結果に問題や不完全さをもたらす可能性がある場合、警告メッセージを表示します (詳細はメッセージ テキストを参照)。メッセージ形式は [VAIQ_WARN][MESSAGE_ID]: メッセージテキストです。警告が発生しても、量子化プロセスは完了まで進むことができます。

次の表に、重要な警告メッセージをまとめます。

表 1. Vai_q_pytorch の警告メッセージ
メッセージ ID 説明
QUANTIZER_TORCH_BATCHNORM_AFFINE モデル解析時に、BatchNorm OP の属性 affine=False が affine=True に置き換えられました。
QUANTIZER_TORCH_BITWIDTH_MISMATCH コンフィギュレーション ファイルのビット幅設定。torch_quantizer API の設定と競合する場合、コンフィギュレーション ファイルの設定が使用されます。
QUANTIZER_TORCH_CONVERT_XMODEL XMODEL への変換エラー。メッセージの内容を確認して原因を特定してください。
QUANTIZER_TORCH_CUDA_UNAVAILABLE CUDA (HIP) は利用できません。デバイスを CPU に変更してください。
QUANTIZER_TORCH_DATA_PARALLEL DP (Data Parallel) はサポートされません。vai_q_pytorch でラッパー 'torch.nn.DataParallel' が削除されました。
QUANTIZER_TORCH_DEPLOY_MODEL 量子化認識トレーニング プロセスにしか運用可能モデルはありません。
QUANTIZER_TORCH_DEVICE_MISMATCH 入力引数のデバイスがクオンタイザーのデバイス タイプと一致しません。
QUANTIZER_TORCH_EXPORT_XMODEL 何らかの理由により、XMODEL を生成できませんでした。メッセージの内容を参照してください。
QUANTIZER_TORCH_FINETUNE_IGNORED テスト モードでは高速微調整機能は無視されます。
QUANTIZER_TORCH_FLOAT_OP vai_q_pytorch は、list OP をデフォルトで浮動小数点演算子と認識します。
QUANTIZER_TORCH_INSPECTOR_PATTERN OP がコンパイラによって融合されず、DPU に割り当てられる可能性があります。
QUANTIZER_TORCH_LEAKYRELU LeakyReLU の negative_slope を強制的に 0.1015625 に変更します (DPU がこの値しかサポートしていないため)。運用モデルの精度を改善するには、LeakyReLU のすべての negative_slope を 0.1015625 に変更し、浮動小数点モデルを再トレーニングすることを推奨します。
QUANTIZER_TORCH_MATPLOTLIB 可視化に必要な matplotlib が見つかりません。インストールしてください。
QUANTIZER_TORCH_MEMORY_SHORTAGE 高速微調整に必要なメモリが不足しているため、このプロセスは無視されます。使用するキャリブレーション データセットを小さくしてください。
QUANTIZER_TORCH_NO_XIR 環境に XIR パッケージが見つかりませんでした。インストールしてください。
QUANTIZER_TORCH_REPLACE_RELU6 ReLU6 は ReLU で置き換わりました。
QUANTIZER_TORCH_REPLACE_SIGMOID Sigmoid は Hardsigmoid で置き換わりました。
QUANTIZER_TORCH_REPLACE_SILU SiLU は Hardswish で置き換わりました。
QUANTIZER_TORCH_SHIFT_CHECK 量子化スケールが大きすぎるか小さすぎます。
QUANTIZER_TORCH_TENSOR_NOT_QUANTIZED 一部のテンソルは量子化されません。特異性を確認してください。
QUANTIZER_TORCH_TENSOR_TYPE_NOT_QUANTIZABLE このノードのテンソル タイプは量子化できません。float32/double/float16 量子化のみサポートされます。
QUANTIZER_TORCH_TENSOR_VALUE_INVALID テンソルに「inf」または「nan」の値があります。このテンソルの量子化は無視されます。
QUANTIZER_TORCH_TORCH_VERSION TorchScript のエクスポートは PyTorch 1.10 以降のバージョンでしかサポートされません。
QUANTIZER_TORCH_XIR_MISMATCH XIR のバージョンが現在の vai_q_pytorch と一致しません。
QUANTIZER_TORCH_XMODEL_DEVICE ターゲット デバイスが DPU でない場合、XMODEL のダンプはサポートされません。
QUANTIZER_TORCH_REUSED_MODULE モジュールを再利用すると、QAT の精度が低下する可能性があります。想定した内容であることを確認してください。メッセージの内容を確認して問題のあるモジュールを特定してください。
QUANTIZER_TORCH_DEPRECATED_ARGUMENT 引数 device は不要になりました。デバイス情報はモデルから直接取得されます。
QUANTIZER_TORCH_SCALE_VALUE エクスポートしたスケール値がトレーニングされていません。