pytorch版yolov5模型用TenserRT生成engine推理模型参考过程首先准备ONNX模型TenserRT下载安装配置利用TenserRT生成推理模型 我们之前测试了OpenVINO在x86系统上的模型推理加速,本次我们在win10系统下基于cuda+GPU显卡下用tensorRT做engine模型转换,因为显卡太低端最后还是没能生成engine模型,但是过程可以借鉴。 # 模型优化和部署 2024-09-23 37 点赞 0 评论 56 浏览