昨日,第十八屆中國計算語言大會(CCL 2019)在昆明落幕,大會公佈了最佳論文、最佳報告展現獎等多個獎項。html
機器之心報道,做者:一鳴、蛋醬。
spring
CCL 大會是國內天然語言處理領域的高水平會議,每一年都會有 NLP 領域的專家匯聚一堂。本次大會主辦單位爲中文信息學會,組織方爲清華大學人工智能研究院。開幕式上,中國中文信息學會名譽理事長李生教授、昆明理工大學副校長楊斌、清華大學孫茂松教授、復旦大學黃萱菁教授作了致辭。網絡
CCL 會議創辦於 1991 年,由中國中文信息學會計算語言學專業委員會主辦,是國內天然語言處理領域權威性最高、規模和影響最大的學術會議之一,會議內容主要聚焦於中國境內各種語言的智能計算和信息處理,包括特邀報告、論文展現、系統展現、技術評測、前沿技術講習班、國際前沿動態綜述等形式,爲研討和傳播計算語言學最新的學術和技術成果提供了交流平臺。架構
據 CCL 2019 官網顯示,本次會議共收到論文投稿 371 篇(包括中文 237 篇,英文 134 篇);最終錄用 146 篇論文(中文 90 篇,英文 56 篇)。整體錄用率達到 39.35%。其中,中文論文錄用率 37.87%,英文論文錄用率 41.79%。app
CCL 2019 論文錄用列表:www.cips-cl.org/static/CCL2…
性能
據悉,本屆大會容許論文做者平行投稿——便可以將投稿論文同時投到其餘 NLP 大會上,只要另外一會議也有相似的平行投稿政策,這無疑在吸取了優秀論文的同時,使這些論文能夠更好地推向海外研究圈。
學習
除了設立最佳論文獎(同時遵循寧缺毋濫的原則)以外,自 2017 年開始,CCL 大會還增設了「最佳張貼報告展現獎」和「最佳系統展現獎」。
測試
獲獎狀況ui
最佳論文(英文)
編碼
最佳論文獎共有兩篇獲獎論文。包括復旦大學邱錫鵬等關於 BERT 微調用於文本分類任務的論文,以及福州大學等機構研究者提出的重建選項的觀點型閱讀理解任務模型。
論文 1:How to Fine-Tune BERT for Text Classification?
做者:Chi Sun、Xipeng Qiu、Yige Xu、Xuanjing Huang
機構:復旦大學
論文連接:https://arxiv.org/abs/1905.05583
摘要:預訓練語言模型已經在學習通用語言表示上證實了存在的價值。做爲一個 SOTA 預訓練語言模型,BERT(基於 Transformer 的雙向編碼表示)在許多語言理解任務上取得了驚人的結果。在本文中,研究者進行了一項費時費力的實驗,用於探索在 BERT 上進行各類微調方法,以使其用於文本分類任務上。最終,研究者提出了一個通用的 BERT 微調方法。論文提出的方法在 8 個常見的文本分類數據集上取得了新的 SOTA 結果。
圖 1:三種通用的 BERT 微調方法(用不一樣顏色的箭頭標出)。
論文 2:Reconstructed Option Rereading Network for Opinion Questions Reading Comprehension
做者:Delai Qiu、Liang Bao、Zhixing Tian、Yuanzhe Zhang、Kang Liu、Jun Zhao、Xiangwen Liao
機構:福州大學、中國科學院大學、中國科學院自動化所
論文連接(可在 11 月 16 日前免費下載):https://link.springer.com/chapter/10.1007%2F978-3-030-32381-3_8
閱讀理解單選題任務近來逐漸受到關注。這一任務要求極其可以根據和問題相關的文本,從一些選項中選出正確的答案。以前的研究工做主要集中於陳述性的事實問題,而忽略了觀點型的問題。在觀點型問題中,觀點常常以情緒短語,如「好」或者「壞」來表現。這使得以前的工做沒法對文本中的交互信息進行建模。所以,研究者提出了一個名爲 RORN(Reconstructed Option Rereading Network)的模型。模型能夠基於問題首先重建選項。而後,模型利用重建的選項生成其表示。最後,將信息輸入到最大池化層中,對每一個觀點進行排序打分。實驗說明,這一模型在中文觀點問題機器閱讀理解比賽中取得了 SOTA 的性能表現。
最佳論文(中文)
做者:鮑建竹、藍恭強、巫繼鵬、徐睿峯
機構:哈爾濱工業大學 (深圳)
論文連接:http://cips-cl.org/static/anthology/CCL-2019/CCL-19-056.pdf
摘要:現有的基於深度學習的情感緣由發現方法每每缺少對文本子句之間關係的建模,且存在學習過 程不易控制、可解釋性差和對高質量標註數據依賴的不足。針對以上問題,本文提出了一種結合規則蒸餾 的情感緣由發現方法。該方法使用層次結構的雙向門限循環單元 (Bi-GRU) 捕獲詞級的序列特徵和子句之間 的潛層語義關係,並應用注意力機制學習子句與情感關鍵詞之間的相互聯繫,同時結合相對位置信息和殘 差結構獲得子句的最終表示。在此基礎上,經過知識蒸餾技術引入邏輯規則,從而使該模型具備必定的可 控性,最終實現結合邏輯規則的情感緣由發現。在中文情感緣由發現數據集上的實驗結果顯示,該方法達到了目前已知的最優結果,F1 值提高約 2 個百分點。
論文 2:漢語複合名詞短語語義關係知識庫構建與自動識別研究
做者:張文敏、李華勇、邵豔秋
機構:北京語言大學
論文連接:http://cips-cl.org/static/anthology/CCL-2019/CCL-19-077.pdf
摘要:漢語複合名詞短語因其使用範圍普遍、結構獨特、內部語義複雜的特色,一直是語言學分析和中文信息處理領域的 重要研究對象。國內關於複合名詞短語的語言資源極其匱乏,且現有知識庫只研究名名複合形式的短語,包含動詞的複合名詞短 語的知識庫構建仍處於空白階段,同時現有的複合名詞短語知識庫大部分脫離了語境,沒有句子級別的信息。
其餘獲獎狀況
本次大會還公佈了中國中文信息學會(CIPS)最佳博士學位論文獲獎和提名獎的狀況,包括中科院計算所、自動化所,以及山西大學、哈工大、清華、北京語言大學等機構的博士生論文獲獎或得到了提名。
此外,CCL 2019「最佳張貼報告展現獎」和「最佳系統展現獎」的獲獎論文狀況也在 20 日下午的會議上進行了公佈。其中,清華大學構建的「九歌」詩歌創做系統得到了最佳系統展現獎。只須要輸入關鍵字或句子等信息,該系統就能直接生成絕句、藏頭詩、律詩、詞等創做文體。