跳转到主要内容

使用ONNX Runtime OpenVINO EP加速PyTorch模型

项目描述

OpenVINO™与Torch-ORT集成通过使用OpenVINO™执行提供者加速ONNX Runtime的PyTorch模型。此产品是为希望在其推理应用程序中开始使用OpenVINO™的PyTorch开发者设计的。它提供OpenVINO™内联优化,通过最小代码修改增强推理性能。

OpenVINO™与Torch-ORT集成在Intel®硬件上加速了多种AI模型的推理,包括

  • Intel® CPU
  • Intel®集成GPU
  • Intel® Movidius™视觉处理单元 - 简称VPU。

安装

要求

  • Ubuntu 18.04, 20.04
  • Python 3.7, 3.8或3.9

此软件包支持

  • Intel® CPU
  • Intel®集成GPU
  • Intel® Movidius™视觉处理单元(VPUs)。

torch-ort-infer 包依赖于 onnxruntime-openvino 包,该包将默认安装以运行推理工作负载。这个 onnxruntime-openvino 包包含 OpenVINO™ 版本 2022.2.0 的预构建库,消除了单独安装 OpenVINO™ 的需要。OpenVINO™ 库预先构建,CXX11_ABI 标志设置为 0。

有关更多详细信息,请参阅 ONNX Runtime 的 OpenVINO™ 执行提供者。

安装后步骤

安装 torch-ort-infer 后,有一个安装后步骤

python -m torch_ort.configure

用法

默认情况下,使用 Intel® CPU 运行推理。但是,您可以将默认选项更改为 Intel® 集成 GPU 或 Intel® VPU 进行 AI 推理。调用 提供者选项 以更改进行推理的硬件。

有关更多 API 调用和环境变量,请参阅 用法

示例

要快速入门,请探索 HuggingFace 和 TorchVision 模型的 示例

许可证

OpenVINO™ 与 Torch-ORT 集成采用 MIT 许可证。通过为项目做出贡献,您同意其中的许可和版权条款,并在这些条款下发布您的贡献。

支持

请通过 GitHub Issues 提交您的问题、功能请求和错误报告。

如何贡献

我们欢迎社区为 OpenVINO™ 与 Torch-ORT 集成做出贡献。如果您有任何改进的想法

项目详情


下载文件

下载适合您平台文件。如果您不确定选择哪个,请了解更多关于 安装包 的信息。

源分布

本发布中没有提供源分布文件。请参阅 生成分发存档 的教程。

构建分布

torch_ort_infer-1.13.1-py3-none-any.whl (10.8 kB 查看哈希)

上传时间 Python 3

支持者

AWS AWS 云计算和安全赞助商 Datadog Datadog 监控 Fastly Fastly CDN Google Google 下载分析 Microsoft Microsoft PSF 赞助商 Pingdom Pingdom 监控 Sentry Sentry 错误日志 StatusPage StatusPage 状态页