Bert論文翻譯

Abstract 我們介紹了一種新的語言表示模型,稱爲雙向編碼器表示。不同於最近的語言表示模型,BERT旨在通過對所有層的左右上下文進行聯合調節,從未標記文本中預先訓練深層雙向表示。因此,預先訓練好的BERT模型只需一個額外的輸出層就可以進行微調,從而爲廣泛的任務(如問題回答和語言推理)創建最先進的模型,而無需對特定任務的體系結構進行實質性修改。 BERT概念簡單,經驗豐富。它在11項自然語言處理
相關文章
相關標籤/搜索