ONNX Runtime GPU推理
onnxruntime-gpu 版相关说明¶
- 目前已知在 onnxruntime-gpu 上测试过的小伙伴,反映都是 GPU 推理速度比在 CPU 上慢很多。关于该问题,已经提了相关 issue,具体可参见 onnxruntime issue#13198
有关 onnxruntime-gpu 推理慢的相关帖子¶
快速查看比较版本¶
- 国外小伙伴可以基于 Google Colab,国内的小伙伴可以基于百度的 AI Studio 来查看效果
结论¶
onnxruntime-gpu 版在动态输入情况下,推理速度要比 CPU 慢很多。而 OCR 任务就是动态输入,因此不推荐使用 onnxruntime-gpu 版推理。
目前一直在找寻 GPU 端,可以快速推理 ONNX 模型的推理引擎。
相关对比表格¶
| 设备 | onnxruntime-gpu | CPU 总耗时 (s) | CPU 平均耗时 (s / img) | GPU 总耗时 (s) | GPU 平均耗时 (s / img) |
|---|---|---|---|---|---|
| 设备 11 | 1.11.0 | 296.8841 | 1.18282 | 646.14667 | 2.57429 |
| 设备 22 | 1.12.1 | 149.35427 | 0.50504 | 250.81760 | 0.99927 |