TensorFlow2.0學習筆記---broadcasting

之前遇到過一個問題,[email protected] +b 時, [email protected] = [b,10]  b.shape = [10] ,兩個shape不一樣的矩陣在數學上是不能相加的,但是爲什麼在TensorFlow這裏可以相加呢,?broadcasting就是解決這個問題的。     從這個圖中可以看出來,broadcasting的操作是將兩個shape不同的矩陣進行數據平移
相關文章
相關標籤/搜索