我是靠谱客的博主 高大唇彩,最近开发中收集的这篇文章主要介绍TensorRT用自带trtexec实现onnx转engine的用法说明,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

TensorRT自带的trtexec在bin目录下,是一个可执行文件。
目前官方的转换工具 ONNX-TensorRT https://github.com/onnx/onnx-tensorrt

trtexec的用法说明参考 https://blog.csdn.net/qq_29007291/article/details/116135737

trtexec有两个主要用途:

  • 测试网络性能 - 如果您将模型保存为 UFF 文件、ONNX 文件,或者如果您有 Caffe prototxt 格式的网络描述,您可以使用 trtexec 工具来测试推理的性能。 注意如果只使用 Caffe prototxt 文件并且未提供模型,则会生成随机权重。trtexec 工具有许多选项用于指定输入和输出、性能计时的迭代、允许的精度等。
  • 序列化引擎生成 - 可以将UFF、ONNX、Caffe格式的模型构建成engine。

运行./trtexec -h
在这里插入图片描述
在这里插入图片描述

其中给出了 model options、build options、 inference options和system options等。
上次我们使用TensorRT的pyhton API进行序列化模型和前向推理࿰

最后

以上就是高大唇彩为你收集整理的TensorRT用自带trtexec实现onnx转engine的用法说明的全部内容,希望文章能够帮你解决TensorRT用自带trtexec实现onnx转engine的用法说明所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(57)

评论列表共有 0 条评论

立即
投稿
返回
顶部