注:本系列全部博客將持續更新併發布在github上,您能夠經過github下載本系列全部文章筆記文件。javascript
import tensorflow as tf
a = tf.random.shuffle(tf.range(6))
a
<tf.Tensor: id=4, shape=(6,), dtype=int32, numpy=array([3, 1, 5, 2, 0, 4])>
tf.sort(a) # 默認是順序排列
<tf.Tensor: id=17, shape=(6,), dtype=int32, numpy=array([0, 1, 2, 3, 4, 5])>
tf.sort(a, direction='ASCENDING') # 默認順序排列
<tf.Tensor: id=30, shape=(6,), dtype=int32, numpy=array([0, 1, 2, 3, 4, 5])>
tf.sort(a, direction='DESCENDING') # 指定逆序排列
<tf.Tensor: id=40, shape=(6,), dtype=int32, numpy=array([5, 4, 3, 2, 1, 0])>
也對多維Tensor排序,當對多維Tensor進行排序時,能夠經過axis參數指定須要排序的維度,默認axis默認值爲-1,也就是對最後一維進行排序。css
b = tf.random.uniform([3, 3], minval=1, maxval=10,dtype=tf.int32)
b
<tf.Tensor: id=46, shape=(3, 3), dtype=int32, numpy= array([[1, 2, 1], [9, 6, 3], [6, 4, 1]])>
tf.sort(b)
<tf.Tensor: id=59, shape=(3, 3), dtype=int32, numpy= array([[1, 1, 2], [3, 6, 9], [1, 4, 6]])>
tf.sort(b,axis=0) # 經過axis參數指定第一維度,也就是列進行排序
<tf.Tensor: id=91, shape=(3, 3), dtype=int32, numpy= array([[1, 2, 1], [6, 4, 1], [9, 6, 3]])>
<tf.Tensor: id=4, shape=(6,), dtype=int32, numpy=array([1, 3, 2, 4, 5, 0])>
tf.argsort(a, direction='ASCENDING') # 返回排序以後的索引組成的Tensor, 默認是順序排列
<tf.Tensor: id=125, shape=(6,), dtype=int32, numpy=array([5, 0, 2, 1, 3, 4])>
tf.argsort(a, direction='DESCENDING') # n逆序排列
<tf.Tensor: id=136, shape=(6,), dtype=int32, numpy=array([4, 3, 1, 2, 0, 5])>
能夠經過axis參數指定須要排序的維度,默認獲取-1維度排序後索引:html
tf.argsort(b) # 默認對最後一維度排序,也就是以行爲單位排序
<tf.Tensor: id=134, shape=(3, 3), dtype=int32, numpy= array([[0, 2, 1], [2, 1, 0], [2, 1, 0]])>
tf.argsort(b,axis=0) # 指定第一維度進行排序,也就是以列爲單位進行排序
<tf.Tensor: id=149, shape=(3, 3), dtype=int32, numpy= array([[0, 0, 0], [2, 2, 2], [1, 1, 1]])>
返回的張量中,每個元素表示b中原來元素在該行中的索引。html5
sort()方法和argsort()方法都是對給定Tensor的全部元素進行排序,在某些狀況下若是咱們只是要獲取排序的前幾個元素,這時候使用sort()或argsort()方法就有些浪費時間了,這時候能夠使用top_k()方法。top_k()方法能夠指定獲取前k個元素。java
注意:top_k()方法在tf.math模塊中。node
top_2 = tf.math.top_k(a, 2) # 獲取排序後前兩位
top_2
TopKV2(values=<tf.Tensor: id=153, shape=(2,), dtype=int32, numpy=array([5, 4])>, indices=<tf.Tensor: id=154, shape=(2,), dtype=int32, numpy=array([2, 5])>)
從上述輸出能夠看到,top_k()方法返回的是一個TopKV2類型對象,內部包含兩部分數據:第一部分是排序後的真實數據[5, 4],能夠經過TopKV2對象的values屬性獲取;第二部分是排序後數據所在原Tensor中的索引[2, 5],能夠經過TopKV2對象的indices獲取。python
top_2.values
<tf.Tensor: id=153, shape=(2,), dtype=int32, numpy=array([5, 4])>
top_2.indices
<tf.Tensor: id=154, shape=(2,), dtype=int32, numpy=array([2, 5])>
對於高維Tensor也是同樣的:jquery
<tf.Tensor: id=152, shape=(3, 3), dtype=int32, numpy= array([[7, 9, 7], [4, 3, 1], [1, 1, 6]])>
tf.math.top_k(b, 2)
TopKV2(values=<tf.Tensor: id=211, shape=(3, 2), dtype=int32, numpy= array([[9, 7], [4, 3], [6, 1]])>, indices=<tf.Tensor: id=212, shape=(3, 2), dtype=int32, numpy= array([[1, 0], [0, 1], [2, 0]])>)
注意:top_k()方法只能對最後一維度進行排序。linux
(1)reduce_min():求最小值android
a = tf.random.uniform([3, 3], minval=1, maxval=10, dtype=tf.int32)
<tf.Tensor: id=162, shape=(3, 3), dtype=int32, numpy= array([[4, 9, 5], [8, 6, 1], [8, 7, 1]])>
不指定維度時,獲取整個Tensor的最小值:
tf.reduce_min(a) # 最小值
<tf.Tensor: id=169, shape=(), dtype=int32, numpy=1>
經過axis參數能夠對指定維度求最小值:
tf.reduce_min(a, axis=0) # 求指定維度的最小值
<tf.Tensor: id=172, shape=(3,), dtype=int32, numpy=array([4, 6, 1])>
(2)reduce_max():求最大值
tf.reduce_max(a) # 最大值
<tf.Tensor: id=175, shape=(), dtype=int32, numpy=9>
tf.reduce_max(a, axis=-1) # 求最後一維度的最大值
<tf.Tensor: id=190, shape=(3,), dtype=int32, numpy=array([9, 8, 8])>
(3)reduce_mean():求平均值
不指定維度時,求整個Tensor全部元素的平均值:
tf.reduce_mean(a) # 整個Tensor全部元素的平均值
<tf.Tensor: id=227, shape=(), dtype=int32, numpy=4>
tf.reduce_mean(a, axis=0) # 求第一維度(行)均值
<tf.Tensor: id=196, shape=(3,), dtype=int32, numpy=array([6, 7, 2])>
在上面求均值的例子中,由於Tensor的dtype爲int32,因此求出來的均值也是int32,而不是浮點型。若是須要求浮點型的均值,就須要將a的類型先轉換爲float32:
tf.reduce_mean(tf.cast(a, tf.float32), axis=0)
<tf.Tensor: id=200, shape=(3,), dtype=float32, numpy=array([6.6666665, 7.3333335, 2.3333333], dtype=float32)>
argmin()、argmax()返回最大值最小值的索引組成的Tensor。
(1)argmin():求最小值索引
a = tf.random.uniform([3,3],minval=1, maxval=10, dtype=tf.int32)
<tf.Tensor: id=205, shape=(3, 3), dtype=int32, numpy= array([[5, 6, 1], [3, 7, 2], [7, 1, 6]])>
b = tf.random.uniform([3,3,3],minval=1, maxval=10, dtype=tf.int32)
<tf.Tensor: id=210, shape=(3, 3, 3), dtype=int32, numpy= array([[[5, 4, 7], [4, 3, 9], [5, 3, 6]], [[9, 5, 3], [3, 2, 7], [5, 6, 1]], [[9, 9, 5], [5, 4, 4], [7, 1, 1]]])>
tf.argmin(a) # 默認是第0維度
<tf.Tensor: id=213, shape=(3,), dtype=int64, numpy=array([1, 2, 0], dtype=int64)>
tf.argmin(b)
<tf.Tensor: id=216, shape=(3, 3), dtype=int64, numpy= array([[0, 0, 1], [1, 1, 2], [0, 2, 1]], dtype=int64)>
對於shape爲(3, 3)的Tensor,argmin(a)返回的是shape爲(3,)的Tensor,由於沒有指定比較的維度,默認比較的是第0維度的元素,也就是每一列數據;對於shape爲(3,3,3)的Tensor,argmin(a)返回的是shape爲(3,3)的Tensor,默認比較的是第0維度的元素,也就是每一塊對應位置的元素,例如第一塊的五、第二塊的九、第三塊的9比較,第一塊的5最小,索引爲0,因此返回的Tensor中第一個元素是0。
注意:argmin()方法在沒有指定維度時,默認返回的是第0維度最小值的索引,這與reducemin()方法不一樣,reducemin()方法在沒有指定維度是是返回整個Tensor中全部元素中的最小值。
(2)argmax():求最大值索引
a = tf.random.uniform([3,3,3],minval=1, maxval=10, dtype=tf.int32)
<tf.Tensor: id=221, shape=(3, 3, 3), dtype=int32, numpy= array([[[1, 2, 7], [9, 3, 3], [5, 4, 8]], [[8, 5, 1], [2, 6, 5], [2, 1, 2]], [[8, 9, 7], [3, 3, 9], [7, 7, 2]]])>
tf.argmax(a, axis=0) # 第一維度,也就是每一塊
<tf.Tensor: id=233, shape=(3, 3), dtype=int64, numpy= array([[1, 2, 0], [0, 1, 2], [2, 2, 0]], dtype=int64)>
tf.argmax(a, axis=2) # 第三維度,也就是每一行
<tf.Tensor: id=236, shape=(3, 3), dtype=int64, numpy= array([[2, 0, 2], [0, 1, 0], [1, 2, 0]], dtype=int64)>