PyTorch shuffle坑

NumPy 的數組能夠用 np.random.shuffle 或 random.shuffle 打亂,元素仍是以前的元素,只是位置變了; PyTorch 沒有本身的 shuffle 函數[1],但 torch.Tensor 不能用上面兩種方法 shuffle:感受變成可放回抽樣了,元素不全、有重複。 用 pytorch 若是本身寫 data loading,用到 indices,且遇到 pytor
相關文章
相關標籤/搜索