VAIQ_ERROR - 3.5 简体中文

Vitis AI 用户指南 (UG1414)

Document ID
UG1414
Release Date
2023-09-28
Version
3.5 简体中文

如果存在问题导致量化结果出现问题或者不完整(请参阅消息文本获取详细信息),那么 Vai_q_PyTorch 会显示错误消息。此类信息的格式为“[VAIQ_ERROR][MESSAGE_ID]: 消息文本”

下表列出了重要的错误信息:

表 1. Vai_q_PyTorch 错误消息表
消息 ID 描述
QUANTIZER_TORCH_BIAS_CORRECTION 量化结果目录中的偏差纠正文件与当前模型不匹配。 
QUANTIZER_TORCH_CALIB_RESULT_MISMATCH 加载张量的量化步骤时,发现节点名称不匹配。请确保用于测试模式的 vai_q_pytorch 和 PyTorch 版本与校准(或 QAT 训练)模式中的版本相同。
QUANTIZER_TORCH_EXPORT_ONNX 量化模块基于 PyTorch 追踪模型,此模块由于 PyTorch 内部故障导致无法导出到 ONNX。PyTorch 内部故障原因列在消息文本中。可能需要调整浮点模型代码。
QUANTIZER_TORCH_EXPORT_XMODEL 无法将计算图转换为 XMODEL。需要检查消息文本中的原因。
QUANTIZER_TORCH_FAST_FINETINE 快速微调参数文件不存在。调用模型代码中的 load_ft_param 以加载该文件。
QUANTIZER_TORCH_FIX_INPUT_TYPE 导出 ONNX 格式模型时,量化 OP 的实参中的数据类型或值违规。
QUANTIZER_TORCH_ILLEGAL_BITWIDTH 张量量化配置违规。它应为整数并在消息文本中给定的范围内。
QUANTIZER_TORCH_IMPORT_KERNEL 导入 vai_q_PyTorch 库文件时出错。检查 PyTorch 版本与 vai_q_pytorch 版本 (PyTorch_nndct.__version__) 是否匹配。
QUANTIZER_TORCH_NO_CALIB_RESULT 量化结果文件不存在。请检查校准是否已完成。
QUANTIZER_TORCH_NO_CALIBRATION 量化校准未完成执行。检查是否调用模块 FORWARD 函数。在用户代码中必须显式调用 torch_quantizer.quant_model 的 forward 函数。请参阅位于以下位置的代码示例:https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py。
QUANTIZER_TORCH_NO_FORWARD 必须在导出量化结果前调用 torch_quantizer.quant_model FORWARD 函数。请参阅位于以下位置的代码示例:https://github.com/Xilinx/Vitis-AI/blob/master/src/Vitis-AI-Quantizer/vai_q_PyTorch/example/resnet18_quant.py。
QUANTIZER_TORCH_OP_REGIST OP 的类型不能多次寄存。
QUANTIZER_TORCH_PYTORCH_TRACE 无法从模型实参和输入实参获取 PyTorch 追踪计算图。在消息文本中报告了 PyTorch 内部故障原因。可能需要调整浮点模型代码。
QUANTIZER_TORCH_QUANT_CONFIG 量化配置项违规。请参阅消息文本。
QUANTIZER_TORCH_SHAPE_MISMATCH 张量形状不匹配。请参阅消息文本。
QUANTIZER_TORCH_TORCH_VERSION Pytorch 版本针对该函数不受支持或者与 vai_q_PyTorch 版本 (PyTorch_nndct.__version__) 不匹配。请参阅消息文本。
QUANTIZER_TORCH_XMODEL_BATCHSIZE 导出 XMODEL 时,批次大小必须为 1。
QUANTIZER_TORCH_INSPECTOR_OUTPUT_FORMAT 检查器仅支持转储 SVG 格式或 PNG 格式。
QUANTIZER_TORCH_INSPECTOR_INPUT_FORMAT 检查器不再支持指纹。请改为提供架构名称。
QUANTIZER_TORCH_UNSUPPORTED_OPS 不支持 op 的量化。
QUANTIZER_TORCH_TRACED_NOT_SUPPORT 由 'torch.jit.script' 生成的模型在 vai_q_PyTorch 中不受支持。
QUANTIZER_TORCH_NO_SCRIPT_MODEL vai_q_PyTorch 找不到任何脚本模型。
QUANTIZER_TORCH_REUSED_MODULE 在前传中已多次调用量化模块。如果要在多次调用中共享量化参数,请调用 trainable_model 并设置“allow_reused_module=True”。
QUANTIZER_TORCH_DATA_PARALLEL_NOT_ALLOWED 不允许 torch.nn.DataParallel 对象。
QUANTIZER_TORCH_INPUT_NOT_QUANTIZED 输入未量化。请使用 QuantStub/DeQuantStub 来定义量化作用域。
QUANTIZER_TORCH_NOT_A_MODULE 量化运算必须是“torch.nn.Module”的实例。请将该函数替换为“torch.nn.Module”对象。在消息文本中指出了原始的源码范围。
QUANTIZER_TORCH_QAT_PROCESS_ERROR 必须先调用“trainable_model”,然后再获取可部署的模型。
QUANTIZER_TORCH_QAT_DEPLOYABLE_MODEL_ERROR 给定的训练后模型已将 BN 融合到 CONV 且无法转换为可部署的模型。切勿调用 model.fuse_conv_bn()。
QUANTIZER_TORCH_XMODEL_DEVICE XMODEL 只能在 CPU 模式下导出。请使用 deployable_model(src_dir, used_for_XMODEL=True) 获取 CPU 模型。