實操將TensorFlow模型部署成Docker服務化

背景 深度學習模型如何服務化是一個機器學習領域工程方面的熱點,如今業內一個比較主流的作法是將模型和模型的服務環境作成docker image。這樣作的一個好處是屏蔽了模型對環境的依賴,由於深度學習模型在服務的時候可能對各類框架版本和依賴庫有要求,解決運行環境問題一直是個使人頭痛的事情。git 將模型經過docker服務化後意味着深度學習模型能夠在各類環境使用,好比雲端直接經過k8s調度拉起,或者在
相關文章
相關標籤/搜索