Vai_q_pytorch は、量子化の結果に問題や不完全さをもたらす可能性がある場合、警告メッセージを表示します (詳細はメッセージ テキストを参照)。メッセージ形式は [VAIQ_WARN][MESSAGE_ID]: メッセージテキストです。警告が発生しても、量子化プロセスは完了まで進むことができます。
次の表に、重要な警告メッセージをまとめます。
メッセージ ID | 説明 |
---|---|
QUANTIZER_TORCH_BATCHNORM_AFFINE | モデル解析時に、BatchNorm OP の属性 affine=False が affine=True に置き換えられました。 |
QUANTIZER_TORCH_BITWIDTH_MISMATCH | コンフィギュレーション ファイルのビット幅設定。torch_quantizer API の設定と競合する場合、コンフィギュレーション ファイルの設定が使用されます。 |
QUANTIZER_TORCH_CONVERT_XMODEL | XMODEL への変換エラー。メッセージの内容を確認して原因を特定してください。 |
QUANTIZER_TORCH_CUDA_UNAVAILABLE | CUDA (HIP) は利用できません。デバイスを CPU に変更してください。 |
QUANTIZER_TORCH_DATA_PARALLEL | DP (Data Parallel) はサポートされません。vai_q_pytorch でラッパー 'torch.nn.DataParallel' が削除されました。 |
QUANTIZER_TORCH_DEPLOY_MODEL | 量子化認識トレーニング プロセスにしか運用可能モデルはありません。 |
QUANTIZER_TORCH_DEVICE_MISMATCH | 入力引数のデバイスがクオンタイザーのデバイス タイプと一致しません。 |
QUANTIZER_TORCH_EXPORT_XMODEL | 何らかの理由により、XMODEL を生成できませんでした。メッセージの内容を参照してください。 |
QUANTIZER_TORCH_FINETUNE_IGNORED | テスト モードでは高速微調整機能は無視されます。 |
QUANTIZER_TORCH_FLOAT_OP | vai_q_pytorch は、list OP をデフォルトで浮動小数点演算子と認識します。 |
QUANTIZER_TORCH_INSPECTOR_PATTERN | OP がコンパイラによって融合されず、DPU に割り当てられる可能性があります。 |
QUANTIZER_TORCH_LEAKYRELU | LeakyReLU の negative_slope を強制的に 0.1015625 に変更します (DPU がこの値しかサポートしていないため)。運用モデルの精度を改善するには、LeakyReLU のすべての negative_slope を 0.1015625 に変更し、浮動小数点モデルを再トレーニングすることを推奨します。 |
QUANTIZER_TORCH_MATPLOTLIB | 可視化に必要な matplotlib が見つかりません。インストールしてください。 |
QUANTIZER_TORCH_MEMORY_SHORTAGE | 高速微調整に必要なメモリが不足しているため、このプロセスは無視されます。使用するキャリブレーション データセットを小さくしてください。 |
QUANTIZER_TORCH_NO_XIR | 環境に XIR パッケージが見つかりませんでした。インストールしてください。 |
QUANTIZER_TORCH_REPLACE_RELU6 | ReLU6 は ReLU で置き換わりました。 |
QUANTIZER_TORCH_REPLACE_SIGMOID | Sigmoid は Hardsigmoid で置き換わりました。 |
QUANTIZER_TORCH_REPLACE_SILU | SiLU は Hardswish で置き換わりました。 |
QUANTIZER_TORCH_SHIFT_CHECK | 量子化スケールが大きすぎるか小さすぎます。 |
QUANTIZER_TORCH_TENSOR_NOT_QUANTIZED | 一部のテンソルは量子化されません。特異性を確認してください。 |
QUANTIZER_TORCH_TENSOR_TYPE_NOT_QUANTIZABLE | このノードのテンソル タイプは量子化できません。float32/double/float16 量子化のみサポートされます。 |
QUANTIZER_TORCH_TENSOR_VALUE_INVALID | テンソルに「inf」または「nan」の値があります。このテンソルの量子化は無視されます。 |
QUANTIZER_TORCH_TORCH_VERSION | TorchScript のエクスポートは PyTorch 1.10 以降のバージョンでしかサポートされません。 |
QUANTIZER_TORCH_XIR_MISMATCH | XIR のバージョンが現在の vai_q_pytorch と一致しません。 |
QUANTIZER_TORCH_XMODEL_DEVICE | ターゲット デバイスが DPU でない場合、XMODEL のダンプはサポートされません。 |
QUANTIZER_TORCH_REUSED_MODULE | モジュールを再利用すると、QAT の精度が低下する可能性があります。想定した内容であることを確認してください。メッセージの内容を確認して問題のあるモジュールを特定してください。 |
QUANTIZER_TORCH_DEPRECATED_ARGUMENT | 引数 device は不要になりました。デバイス情報はモデルから直接取得されます。 |
QUANTIZER_TORCH_SCALE_VALUE | エクスポートしたスケール値がトレーニングされていません。 |