使用 WeGO - 3.5 简体中文

Vitis AI 用户指南 (UG1414)

Document ID
UG1414
Release Date
2023-09-28
Version
3.5 简体中文

WeGO(全计算图优化器)是 Vitis AI 的关键功能特性,它能提供无缝解决方案用于在 Versal 数据中心 DPU 上部署 TensorFlow 和 PyTorch 模型。WeGO 通过将 Vitis AI 开发套件与 TensorFlow 和 PyTorch 框架集成,即可在 DPU 上高效部署模型。从 Vitis AI 2.5 开始,WeGO 支持 TensorFlow 2.x 和 PyTorch 1.x。它被视为是 Vitis AI 中的框架内推断解决方案,有别于使用 VART API 或 AI Library 的非框架方法。

WeGO 会自动执行子计算图分区,并为兼容数据中心 DPU 的子计算图应用最优化和加速。DPU 不支持的计算图部分(称为 CPU 子计算图)会被分派到 TensorFlow 或 PyTorch 框架,由 CPU 本机执行。WeGO 会处理包括全计算图最优化、编译和运行时子计算图分派与执行在内的整个进程。此进程完全与最终用户无关,无需最终用户参与,因此非常易用。

使用 WeGO 可为模型设计师提供从训练到推断的无缝过渡。借助 WeGO 的 Python 编程接口,即可直截了当完成在 TensorFlow 或 PyTorch 框架上部署量化模型的操作。此接口支持尽可能复用在 TensorFlow 或 PyTorch 模型训练阶段中开发的 Python 代码,包括预处理和后处理。因此,在数据中心 DPU 上部署和评估模型时,WeGO 可显著提高工作效率。
注释: 当前,WeGO 仅支持 V70 平台上的数据中心 DPU 目标 DPUCV2DX8G。

如需获取 WeGO 示例以及有关应用 TensorFlow 和 PyTorch 来部署模型的更多信息,请参阅 Vitis AI GitHub 仓库