2022.2 版本新内容
本工具套件的最新版本 (2022.2) 使各地的开发人员都能够更简单地开始创新。利用更简洁的 API 和更多集成进行构建。利用更广泛的模型和硬件支持进行优化。利用改善的可移植性和性能进行部署。 注意 这是标准版本,适用于偏好最新功能和出色性能的开发人员。标准版本将每年更新三至四次。此外还提供长期支持 (LTS) 版本。每年发布一个新 LTS 版本,并提供两年支持(一年错误修复和两年安全补丁)。 版本说明 查看系统要求更广泛的支持
在扩展的深度学习模型中轻松优化和部署,包括自然语言处理 (NLP)。通过扩展的硬件获取 AI 加速。- 第 13 代智能英特尔® 酷睿™ 台式机处理器(原代号为 Raptor Lake)的全新初始支持。
- 针对智能云、边缘和媒体分析工作负载中深度学习推理工作负载的英特尔独立显卡、 英特尔® Data Center GPU Flex 系列和 英特尔锐炫™ GPU 的全新预览支持,使数百个模型能够在 GPU 上工作。
- 使用第 4 代英特尔® 至强® 处理器(原代号为 Sapphire Rapids)的预览支持,获得测试您的模型性能的新功能。
- 在 CPU 上使用动态输入形状时,减少内存消耗。这提高了 NLP 应用程序的效率。
更简洁的 API 以及更多集成
采用和维护您的代码现在变得更加简单。新版本需要更少的代码更改,在与框架集成时提供更多选项,并最大限度地减少转换。- 通过 OpenVINO™ 执行程序,ONNX* (Open Neural Network Exchange) 运行时开发人员能获得更多性能优化选择。现在可以通过最少的代码更改,更简单地添加英特尔发行版 OpenVINO 工具套件。
- PyTorch* 中的模型推理现在通过全新的 OpenVINO™ 与 Torch-ORT 的集成得到加速。PyTorch 的开发人员可以更无缝地与 OpenVINO 集成,并通过更少的代码更改来获得性能收益。
- 更多的深度学习模型在 OpenVINO™ 与 TensorFlow* 的集成中获得支持和改善的推理性能。
- OpenVINO API 2.0 引入 2022.1 中。旧的推理引擎和 nGraph API 可用。有关更多信息,请参阅 2022.1 版本说明和 过渡指南。
可迁移性和性能
通过跨 CPU、GPU 等的自动设备发现、负载均衡和动态推理并行来快速提升性能。- AUTO 功能中添加了新的累积吞吐量和一些精选的计算模式。这为 AUTO 基础功能添加了一个自动发现的配置,使得多个加速器(比如多个 GPU)能够得到立即使用,以最大限度地提高推理性能。
- 工具套件中内置了专家优化。利用自动批处理功能来为您的系统配置和深度学习模型进行自动调整和自定义正确的吞吐量设置,提高设备的性能。获得可扩展的并行性和优化的内存使用。