自然語言處理之Hierarchical Attention

一、簡介 今天,基本上所有的NLP方面的應用,如果想取得state-of-art的結果,就必須要經過attention model的加持。比如machine translation, QA(question-answer), NLI(natural language inference), etc, etc…. 但是這裏有個問題:統上的attention的應用,總是要求我們的task本身同時有源和
相關文章
相關標籤/搜索