tensorflow實現seq2seq模型細節(2):tf.contrib.seq2seq.sequence_loss

查看tensorflow源碼其內部sequence_loss若是未指定softmax_loss_function使用的sparse_softmax_cross_entropy_with_logitsgit 你也能夠本身實現這個seq_loss:spa 使用這個tf.contrib.seq2seq.sequence_loss只須要傳入masks。而單獨使用這須要顯式的寫代碼定義mask對sparse
相關文章
相關標籤/搜索