PyTorch - 2.0 Japanese

Vitis AI RNN ユーザー ガイド (UG1563)

Document ID
UG1563
Release Date
2022-01-20
Version
2.0 Japanese
example/lstm_quant_pytorch/quantize_lstm.py ファイルにサンプルが含まれます。
  1. PyTorch クオンタイザー モジュールをインポートします。
    from pytorch_nndct.apis import torch_quantizer
  2. 量子化に必要な入力でクオンタイザーを生成し、変換されたモデルを取得します。
    quantizer = torch_quantizer(quant_mode=args.quant_mode, 
                                module=model, 
                                bitwidth=16, 
                                lstm=True)
    model = quantizer.quant_model
  3. 変換されたモデルと共にニューラル ネットワークを転送します。
    acc = test(model, DEVICE, test_loader)
  4. 量子化の結果を出力し、モデルを運用します。
    if args.quant_mode == 'calib':
        quantizer.export_quant_config()
    if args.quant_mode == 'test':
        quantizer.export_xmodel(deploy_check=True)