模型地址:
https://github.com/openvinotoolkit/openvino_notebooks/tree/main/notebooks/001-hello-world/model
OpenVINO™ 工具套件可以通过不同的插件(Plugin)来调用当前系统下的推理硬件。比如:CPU、dGPU和iGPU,进行硬件推理的性能测试。以及MULTI插件可以协同调用任意多个推理硬件同时推理,AUTO插件可以自动选择当前系统下最优硬件进行推理。当前系统下,各推理硬件推理性能的测试如下图所示:
- Ubuntu 20.04 LTS i7-11700T with A770(16GB)
- Command: benchmark_app –m “yolov7-tiny.xml” –d
总结
相比可以直接使用驱动安装包的Windows系统,Linux系统在dGPU 的驱动安装上会稍微复杂一些。用户插入dGPU之后,可以根据本文在Ubuntu系统下安装所需要的驱动。驱动安装完成后,按照本文步骤方法,检查驱动是否已正确安装并启用。完成安装后,dGPU才能进行高分辨率图像渲染输出,同时也可以使用dGPU进行编解码,AI 模型的训练与推理,以及OpenVINO™ 的应用部署等一系列操作。
从OpenVINO™ 提供的性能测试工具得到的数据来看, dGPU(A770)的AI推理性能相较于Tiger-Lake的CPU强劲非常多,并且dGPU与其他推理硬件,例如iGPU、CPU的协同推理都十分易于实现且稳定。在MULTI插件帮助下,协同CPU与dGPU能够获得相较于单独使用某一设备更好的推理性能数据,并且部署至多设备协同推理时十分易用。AUTO插件也可以快速选择到当前系统中的最优硬件进行推理。开发者可以将前期基于OpenVINO™ 在CPU或iGPU开发的AI应用快速迁移至dGPU中实现,推荐开发者尝试联合推理硬件进行AI推理以获得更强性能。
注:文中涉及的其它名称及商标属于各自所有者资产。