tf.concat( )和tf.stack( )

相同點:都是組合重構數據.python

不一樣點:concat()不改變維數,而stack改變了維數(待定!!!)spa

tf.concat是鏈接兩個矩陣的操做,請注意API版本更改問題,相應參數也發生改變,具體查看API.code

 

tf.concat(concat_dim, values, name='concat')

除去name參數用以指定該操做的name,與方法有關的一共兩個參數:it

 

第一個參數concat_dim:必須是一個數,代表在哪一維上鍊接class

     若是concat_dim是0,那麼在某一個shape的第一個維度上連,對應到實際,就是疊放到列上 重構

  1. t1 = [[1, 2, 3], [4, 5, 6]]  
  2. t2 = [[7, 8, 9], [10, 11, 12]]  
  3. tf.concat(0, [t1, t2]) == > [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]  
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat(0, [t1, t2]) == > [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]

             若是concat_dim是1,那麼在某一個shape的第二個維度上連程序

 

  1. t1 = [[1, 2, 3], [4, 5, 6]]  
  2. t2 = [[7, 8, 9], [10, 11, 12]]  
  3. tf.concat(1, [t1, t2]) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12  
t1 = [[1, 2, 3], [4, 5, 6]]
t2 = [[7, 8, 9], [10, 11, 12]]
tf.concat(1, [t1, t2]) ==> [[1, 2, 3, 7, 8, 9], [4, 5, 6, 10, 11, 12

             若是有更高維,最後鏈接的依然是指定那個維:方法

             values[i].shape = [D0, D1, ... Dconcat_dim(i), ...Dn]鏈接後就是:[D0, D1, ... Rconcat_dim, ...Dn]im

  

  1. # tensor t3 with shape [2, 3]  
  2. # tensor t4 with shape [2, 3]  
  3. tf.shape(tf.concat(0, [t3, t4])) ==> [4, 3]  
  4. tf.shape(tf.concat(1, [t3, t4])) ==> [2, 6]  
# tensor t3 with shape [2, 3]
# tensor t4 with shape [2, 3]
tf.shape(tf.concat(0, [t3, t4])) ==> [4, 3]
tf.shape(tf.concat(1, [t3, t4])) ==> [2, 6]

 

 

第二個參數values:就是兩個或者一組待鏈接的tensor了數據

 

/×××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××/

這裏要注意的是:若是是兩個向量,它們是沒法調用  

 
  1. tf.concat(1, [t1, t2])  
tf.concat(1, [t1, t2])

來鏈接的,由於它們對應的shape只有一個維度,固然不能在第二維上連了,雖然實際中兩個向量能夠在行上連,可是放在程序裏是會報錯的

若是要連,必需要調用tf.expand_dims來擴維: 

  1. t1=tf.constant([1,2,3])  
  2. t2=tf.constant([4,5,6])  
  3. #concated = tf.concat(1, [t1,t2])這樣會報錯  
  4. t1=tf.expand_dims(tf.constant([1,2,3]),1)  
  5. t2=tf.expand_dims(tf.constant([4,5,6]),1)  
  6. concated = tf.concat(1, [t1,t2])#這樣就是正確的  
相關文章
相關標籤/搜索