使用uwsgi結合Flask多進程調用TensorFlow模型推理時服務卡住

       使用Flask對TensorFlow訓練後的模型進行服務器部署時,想使用uwsgi設置多進程的方式解決發佈服務以解決高併發。服務寫好後使用uwsgi進行多進程發佈後發現運行sess.run調用模型推理時服務會卡住沒法運行,查看後臺uwsgi進程後會發現僅剩一個uwsgi服務,其餘的uwsgi進程已經僵死。html 一開始糾結多是tf的問題,嘗試了不少方法將模型調用經過類建立後仍是不能
相關文章
相關標籤/搜索