分佈式 TensorFlow代碼實現

通過多 GPU 並行的方式可以獲得較好的加速計算的效果,但一臺機器上能夠安裝的 GPU 是有限的,如果需要進一步提升深度學習模型的訓練 速度,可以採用分佈式運行TensorFlow 的方式將模型放在多臺機器上進行 訓練。TensorFlow 的分佈式並行基於 gRPC通信框架。在一個分佈式的運行環 境下,有一個 Master 負責創建和維護 Session,還有多個 Worker 負責執行計 算圖
相關文章
相關標籤/搜索