【框架】:適用於端側的深度學習推理框架:TensorRT

1.TensorRT是什麼 TensorRT: GPU Inference Engine(簡稱GIE) 2.推斷(Inference)可以做什麼? 推斷(Inference)的網絡權值已經固定下來,無後向傳播過程,因此可以: (1)模型固定,可以對計算圖進行優化 (2) 輸入輸出大小固定,可以做memory優化 推斷(Inference)可以使用低精度的技術,另一方面是模型需要的空間減少,不管是權
相關文章
相關標籤/搜索