Tf-serving+Nvidia-Docker+REST API+Tornado

使用tf-serving部署服務,REST API 是我們比較熟悉的一種服務調用方式,請求的數據格式一般爲json格式,由於模型需要輸入輸出,因此結合tornado實現模型服務部署 1、docker環境 下載安裝docker,若使用gpu安裝nvidia-docker 2、鏡像拉取 : cpu: docker pull tensorflow/serving gpu: docker pull ten
相關文章
相關標籤/搜索
本站公眾號
   歡迎關注本站公眾號,獲取更多信息