【論文閱讀】 A Decomposable Attention Model for Natural Language Inference

任務定義:輸入前提文本(premise)和假設文本(hypothesis),預測假設文本和前提文本之間的關係——蘊含、矛盾或中立。 現有的模型計算量非常龐大,模型的參數非常多。與現有的方法相比,該方法僅依賴於對齊方式,並且對於輸入文本完全是可分解的。 模型架構如上圖所示,輸入兩個句子,句子中的每個詞都用一個embedding向量表示,首先基於neural attention創建一個軟對齊矩陣;然後
相關文章
相關標籤/搜索