基於張量網絡的機器學習(五)

  在基本瞭解了張量新的表示方法後,如果我們把向量換成矢量,將實矩陣換爲復矩陣,總之將對應的一切實數都換成複數,我們會發現這種方法很多時候依舊適用,甚至在其中會蘊含更多奇妙的東西,能夠起到更大的作用。 一.TT分解(Tensor-train decomposition) 1.TT分解   先上一張張量火車分解的示意圖:   這裏將一個三階張量分解成了兩個二階張量和若干個三階張量的乘積,如果我們用等
相關文章
相關標籤/搜索