跳转至

ONNX Runtime GPU推理

onnxruntime-gpu 版相关说明

  • 目前已知在 onnxruntime-gpu 上测试过的小伙伴,反映都是 GPU 推理速度比在 CPU 上慢很多。关于该问题,已经提了相关 issue,具体可参见 onnxruntime issue#13198

有关 onnxruntime-gpu 推理慢的相关帖子

快速查看比较版本

  • 国外小伙伴可以基于 Google Colab,国内的小伙伴可以基于百度的 AI Studio 来查看效果

结论

onnxruntime-gpu 版在动态输入情况下,推理速度要比 CPU 慢很多。而 OCR 任务就是动态输入,因此不推荐使用 onnxruntime-gpu 版推理。

目前一直在找寻 GPU 端,可以快速推理 ONNX 模型的推理引擎。

相关对比表格

设备 onnxruntime-gpu CPU 总耗时 (s) CPU 平均耗时 (s / img) GPU 总耗时 (s) GPU 平均耗时 (s / img)
设备 11 1.11.0 296.8841 1.18282 646.14667 2.57429
设备 22 1.12.1 149.35427 0.50504 250.81760 0.99927

  1. 宏碁 (Acer) 暗影骑士·威 N50-N93 游戏台式机 | Windows | 十代 i5-10400F 16G 512G SSD | NVIDIA GeForce GTX 1660Super 6G 

  2. Linux | AMD R9 5950X | NVIDIA GeForce RTX 3090 

评论