TRANSFORMER-TRANSDUCER:END-TO-END SPEECH RECOGNITION WITH SELF-ATTENTION

TRANSFORMER-TRANSDUCER:END-TO-END SPEECH RECOGNITION WITH SELF-ATTENTION 1.論文摘要 (1)使用VGGNet 的因果卷積結合位置信息來對輸入進行下采樣來保證推理的效率。(2)使用截斷自注意力機制來保證transormer的流式處理從而減少計算複雜度。取得了在LibriSPeech test-clean 6.37%的字錯率,在
相關文章
相關標籤/搜索