摘要: 最好的論文是能夠直接走出實驗室!NLP年度最佳應用論文大集錦!
語言理解對計算機來講是一個巨大的挑戰。幼兒能夠理解的微妙的細微差異仍然會使最強大的機器混淆。儘管深度學習等技術能夠檢測和複製複雜的語言模式,但機器學習模型仍然缺少對咱們的語言真正含義的基本概念性理解。git
但在2018年確實產生了許多具備里程碑意義的研究突破,這些突破推進了天然語言處理、理解和生成領域的發展。github
咱們總結了14篇研究論文,涵蓋了天然語言處理(NLP)的若干進展,包括高性能的遷移學習技術,更復雜的語言模型以及更新的內容理解方法。NLP,NLU和NLG中有數百篇論文,因爲NLP對應用和企業AI的重要性和廣泛性,因此咱們從數百篇論文中尋找對NLP影響最大的論文。web
2018年最重要的天然語言處理(NLP)研究論文vim
論文摘要:網絡
咱們引入了一種名爲BERT的新語言表示模型,它是Transformer的雙向編碼器表示。與最近的語言表示模型不一樣,BERT旨在經過聯合調節全部層中的左右上下文來預訓練深度雙向表示。所以,預訓練的BERT表示能夠經過一個額外的輸出層進行微調,以建立適用於普遍任務的最早進模型,例如問答和語言推理,而無需實質性的具體的架構修改。架構
BERT在概念上簡單且經驗豐富,它得到了11項天然語言處理任務的最新成果,包括將GLUE基準推至80.4%(提高了7.6%)、MultiNLI準確度達到86.7%(提高了5.6%)、SQuAD v1.1問題回答測試F1到93.2%(提高了1.5%)。機器學習
總結函數
谷歌AI團隊提出了天然語言處理(NLP)的新前沿模型-BERT,它的設計容許模型從每一個詞的左側和右側考慮上下文。BERT在11個NLP任務上得到了新的最早進的結果,包括問題回答,命名實體識別和與通常語言理解相關的其餘任務。性能
論文的核心思想是什麼?學習
什麼是關鍵成就?
AI社區對其見解?
將來的研究領域是什麼?
最可能的商業應用是什麼?
BERT能夠幫助企業解決各類NLP問題,包括:
你在哪裏能夠代碼?
論文摘要
學習注意力函數須要很是大規模的數據,不過有不少天然語言處理任務都是對人類行爲的模擬,在這篇論文中做者們就代表人類的注意力確實能夠爲 NLP 中的許多注意力函數提供一個不錯的概括偏倚。具體來講,做者們根據人類閱讀語料時的眼睛動做追蹤數據估計出了「人類注意力」,而後用它對 RNN 網絡中的注意力函數進行正則化。做者們的實驗代表,人類注意力在大量不一樣的任務中都帶來了顯著的表現提高,包括情感分析、語法錯誤檢測以及暴力語言檢測。
總結
Maria Barrett和她的同事建議使用從眼動(eye-tracking)追蹤語料庫中獲取的人類注意力來規範循環神經網絡(RNN)中的注意力。經過利用公開可用的眼動追蹤語料庫,即經過眼睛跟蹤測量(例如注視持續時間)加強的文本,它們可以在NLP任務中顯着提升RNN的準確性,包括情緒分析、濫用語言檢測和語法錯誤檢測。
論文的核心思想是什麼?
什麼是關鍵成就?
§ 情緒分析,§ 檢測語言檢測,
§ 語法錯誤檢測。
AI社區對其見解?
將來的研究領域是什麼?
什麼是可能的商業應用?
§ 增強客戶評論的自動分析;§ 過濾掉濫用的評論,回覆。
你在哪裏能夠獲得實現代碼?
論文摘要
機器翻譯系統在某些語言上實現了接近人類的性能,但其有效性強烈依賴於大量並行句子的可用性,這阻礙了它們適用於大多數語言。本文研究瞭如何在只能訪問每種語言的大型單語語料庫時學習翻譯。咱們提出了兩種模型變體,一種神經模型,另外一種基於短語的模型。兩個版本都利用參數的初始化、語言模型的去噪效果以及經過迭代反向翻譯自動生成並行數據。這些模型明顯優於文獻中的方法,同時更簡單且具備更少的超參數。在普遍使用的WMT'14英語-法語和WMT'16德語-英語基準測試中,咱們的模型不使用單個平行句的狀況下分別得到28.1和25.2 BLEU分數,超過現有技術水平11 BLEU分。在英語-烏爾都語和英語-羅馬尼亞語等低資源語言中,咱們的方法比半監督和監督方法得到的效果都要好,咱們的NMT和PBSMT代碼是公開的。
總結
Facebook AI研究人員認可了缺少用於訓練機器翻譯系統的大型並行語料庫,並提出了一種更好的方法來利用單語數據進行機器翻譯(MT)。特別是,他們認爲經過適當的翻譯模型初始化、語言建模和迭代反向翻譯,能夠成功地完成無監督的MT。研究人員提出了兩種模型變體,一種是神經模型,另外一種是基於短語的模型,它們的性能都極大地超越了目前最早進的模型。
論文的核心思想是什麼?
§ 合適的翻譯模型初始化(即字節對編碼);§ 在源語言和目標語言中訓練語言模型,以提升翻譯模型的質量(例如,進行本地替換,單詞從新排序);
§ 用於自動生成並行數據的迭代反向轉換。
§ 神經機器翻譯一個重要的屬性:跨語言共享內部表示。§ 基於短語的機器翻譯在低資源語言對上優於神經模型,且易於解釋和快速訓練。
什麼是關鍵成就?
§ 對於英語-法語任務,基於短語的翻譯模型得到的BLEU分數爲28.1(比以前的最佳結果高出11 BLEU分);§ 對於德語-英語任務,基於神經和短語的翻譯模型組合獲得BLEU得分爲25.2(高出基線10個BLEU點)。
AI社區的對其想法?
將來的研究領域是什麼?
什麼是可能的商業應用?
你在哪裏能夠獲得實現代碼?
未完待續......
本文爲雲棲社區原創內容,未經容許不得轉載。