TensorRT 3.0在Jetson TX2部署實戰

目前關於使用TensorRT 3.0加速推理caffe的教程不太多,本博客會介紹部署TensorRT從HOST端到Jetson TX2端整個WORKFLOW,而後說明如何修改samples代碼以即可以用自定義模型進行推理加速,主要從如下三個方面展開python TensorRT簡介 環境配置 Jetson端模型文件推理 1、TensorRT簡介 NVIDIA TensorRT是一種高性能神經網絡推
相關文章
相關標籤/搜索