(轉)2018年國外主要實驗室和科研團隊成果和動向

2018年國外主要實驗室和科研團隊成果和動向

做者簡介:SIGAI人工智能平臺html

全文PDF下載:2018年國外主要實驗室和科研團隊成果和動向git

 

This blog is copied from: https://zhuanlan.zhihu.com/p/56818027 github

 

Geoffrey Hinton

 

Geoffrey Hinton,被稱爲「神經網絡之父」、「深度學習鼻祖」,他曾得到愛丁堡大學人工智能的博士學位,而且爲多倫多大學的特聘教授。在2012年,Hinton還得到了加拿大基廉獎(Killam Prizes,有「加拿大諾貝爾獎」之稱的國家最高科學獎)。2013年,Hinton 加入谷歌並帶領一個AI團隊,他將神經網絡帶入到研究與應用的熱潮,將「深度學習」從邊緣課題變成了谷歌等互聯網巨頭仰賴的核心技術,並將BP算法應用到神經網絡與深度學習。

Hinton在2017年的NIPS會議上提出的膠囊網路,基於一種新的結構,經過與現有的卷積神經網絡(CNN)相結合,在一些圖像分類的數據上取得了很是優越的性能,成爲了2018年的發展新趨勢。算法

2018年4月,Hinton 團隊發佈《Large Scale Distributed Neural Network Training Through Online Distillation》( ),經過online distillation進行大規模分佈式神經網絡訓練。該工做提出了Codistillation的概念,經過大規模實驗,發現codistillation方法提升了準確性並加快了訓練速度,而且易於在實踐中使用。編程

在11月發表的《DARCCC:Detecting Adversaries by Reconstruction from Class Conditional Capsules》( )中,他的團隊提出重構網絡能夠視做檢測對抗性攻擊的很是有效的方法:從獲勝的頂層膠囊的身份和姿態參數中重構輸入,以驗證網絡可以感知咱們指望它從某個類的典型樣例中感知的東西。服務器

Yann LeCun

 

Yann LeCun 是美國工程院院士、Facebook前人工智能研究院院長、紐約大學Sliver教授,同時還兼職於科學數據中心,數學科學交流學院,神經科學中心,以及電子工程計算機系。他於2003年加入紐約大學,以後還在普林斯頓的NEC研究院短暫任職。在2012年,他建立了紐約大學數據科學中心,並擔任主任。2013年末,他被任命爲Facebook人工智能研究總監, 並繼續在紐約大學作兼職教授。2015-2016年,他在巴黎法蘭西工學院作客座教授。Lecun創立的卷積網絡模型,被普遍地應用於計算機視覺和語音識別應用裏,也所以他被稱爲卷積網絡之父,是公認的世界人工智能三巨頭之一。

2018年4月,Yann LeCun 等人發表了一篇針對將來實例分割預測的論文《Predicting Future Instance Segmentation by Forecasting Convolutional Features》(https://arxiv.org/abs/1803.11496)。
該論文提出了一種預測模型,可經過預測卷積特徵來對將來實例分割進行預測。網絡

前不久,Lecun等人在論文《Model-Predictive Policy Learning with Uncertainty Regularization for Driving in Dense Traffic》( )中提出經過隨多個時間步驟展開環境動態學到的模型來訓練一個策略的方法,同時明確地懲罰了兩個成本:優化策略時的原始成本;表示訓練狀態離散的不肯定成本。最後,研究人員使用大規模駕駛行爲數據集對此方法進行了評估,結果顯示可以從存粹的觀察數據中有效學習駕駛策略,不去要環境交互。架構

Yoshua Bengio

 

yoshua bengio,蒙特利爾大學(Université de Montréal)的終身教授,同時是蒙特利爾大學機器學習研究所(MILA)的負責人,是CIFAR項目的負責人之一,負責神經計算和自適應感知器等方面,又是加拿大統計學習算法學會的主席,是ApSTAT技術的發起人與研發大牛。Bengio在蒙特利爾大學任教以前,是AT&T貝爾實驗室&MIT的機器學習博士後。他的主要貢獻在於他對循環神經網絡(RNN, Recurrent Neural Networks)的一系列推進,包括經典的neural language model,gradient vanishing 的細緻討論,word2vec的雛形,以及machine translation。Bengio是Deep Learning一書的合著者,且Bengio的」A neural probabilistic language model」論文開創了神經網絡的語言模型 language model先河,裏面的思路影響了以後的不少基於神經網絡作NLP的文章。

9月份,Bengio 等研究者在論文《Learning deep representations by mutual information estimation and maximization》提出了 Deep INFOMAX(DIM)()。該方法根據信息內容和統計或架構約束來學習表示,可用於學習指望特徵的表示,而且在分類任務上優於許多流行的無監督學習方法。他們認爲,這是學習好的和更有條理的表示的一個重要方向,有利於將來的人工智能研究。app

10月份,Bengio 研究團隊提出了一種稱爲 BabyAI 的研究平臺,支持將人類加入到語言學習的基本循環中。BabyAI 平臺由難度遞增的 19 個層級組成。支持智能體獲取具備豐富組合的合成語言,並提供了用於模擬人類教師的啓發式專家。框架

NIPS2018中,Bengio的《Dendritic cortical microcircuits approximate the backpropagation algorithm》( ),介紹了一個簡化的樹突室的多層神經元網絡模型,其中錯誤驅動(error-driven)的突觸可塑性使網絡適應一個全面性的指望輸出。這個框架框架與最近觀察到的大腦區域和皮質微電路結構之間的學習是一致的。

Bengio 等研究者在前不久的最新論文《Quaternion Recurrent Neural Networks》中,提出了一種新的四元循環神經網絡(QRNN)以及相應的四元長短時間記憶網絡(QLSTM),將四元代數的外部關係和內部架構依賴性皆考慮在內。實驗證實,與 RNN 和 LSTM 相比,QRNN 和 QLSTM 都在自動語音識別等實際應用中達到了更好的性能。

吳恩達Andrew Ng

 

吳恩達,華裔美國人,是斯坦福大學計算機科學系和電子工程系副教授,人工智能實驗室主任。吳恩達是人工智能和機器學習領域國際上最權威的學者之一。吳恩達也是在線教育平臺Coursera的聯合創始人(with Daphne Koller)。

2018年5月,吳恩達團隊在MURA數據集上發起了一項深度學習挑戰賽, 這個數據集是他們團隊在2018年1月開源的一個骨骼 X 光片的大型數據集,總共有 40561 份多視圖放射線影像。

7月的時候,該團隊開發出了一種使用人工智能來預測病人死亡時間的系統,該系統能夠爲病人提供更好的臨牀關懷。研究人員提出了一種新的預報檢驗方法 Survival-CRPS,經過優化連續分級機率評分(continuous ranked probability core, CRPS)來提升預報的銳度(sharpness, 評價模式預測極值的傾向),同時保持預報的校準度(calibration, 評價模型預測值的數值大小和結局事件發生機率的大小是否一致)。這是科學界首次將最大似然法以外的評分方法成功應用於大型生存預測任務。

11月底,團隊發佈了一個名爲CheXNeXt的X光診斷算法。與曾經的肺炎檢測專門算法不一樣,該模型能夠診斷14種疾病,包括肺炎、胸腔積液、肺腫塊等等。在其中10種疾病的診斷上,AI都與人類放射科醫生的表現至關,還有一種超過了人類。而且,AI的診斷速度是人類的160倍。團隊說,這樣的算法有但願填補醫療資源的短缺,也能夠用來減小人類醫生由於疲勞而致使的診斷錯誤。

11月28日,團隊宣佈在《公共科學圖書館》期刊發表關於膝關節磁共振成像的深度學習輔助診斷的最新研究。該團隊表示,他們開發了一種算法來預測膝關節核磁共振檢查中的異常,並測量了在解釋過程當中向放射科醫師和外科醫生提供算法預測的臨牀效用。 此外在年末的時候,吳恩達又發佈了《AI 轉型指南》,面向公司管理層,介紹AI產業轉型的一些方法。

2019年年初,也就是前不久,他們斯坦福團隊又在Nature Medicine上發表了一項研究,開發了一種深度神經網絡,可基於單導程 ECG 信號分類 10 種心率不齊以及竇性心律和噪音,性能堪比心臟病醫生,準確度高達83.7%,超過了人類心臟病醫生的78.0%。

Ian Goodfellow

 

Ian Goodfellow,人工智能領域的頂級專家,因提出了生成對抗網絡(GANs)而聞名,被譽爲「GANs之父」。他從斯坦福大學得到計算機科學學士、碩士學位以及博士學位。畢業後,Goodfellow加入Google,成爲Google Brain研究團隊的一員。而後他離開谷歌加入新成立的OpenAI研究所。Ian Goodfellow 在OpenAI短暫工做後,於2017年3月從OpenAI重回谷歌Goodfellow最出名的是發明了生成性對抗網絡,這是Facebook常用的機器學習方法。他也是Deep Learning教科書的主要做者。2017年,Goodfellow被麻省理工學院技術評論評爲35位35歲如下的創新者之一。

2018年年初,William Fedus、Ian Goodfellow和Andrew M. Dai在ICLR 2018共同提交的論文中使用 GAN 和強化學習方法在 NLP 中作了本身的探索(https://arxiv.org/abs/1801.07736)。

2018年7月,Ian等人提出一種新型對抗攻擊(對抗攻擊一般會使得神經網絡分類錯誤),對神經網絡從新編程,誘導模型執行攻擊者選定的新任務。該研究首次代表了神經網絡驚人的脆弱性和靈活性。( )。

8月的一篇論文中,和Augustus Odena共同提出了一種新方法覆蓋引導模糊測試(coverage guided fuzzing,CGF),將其應用於神經網絡的測試( ),該方法可以自動Debug神經網絡。Goodfellow表示,但願這將成爲涉及ML的複雜軟件迴歸測試的基礎,例如,在推出新版本的網絡以前,使用fuzz來搜索新舊版本之間的差別。

此外開源了名爲TensorFuzz的CGF軟件庫。 此外,Ian與團隊的人提出對抗正則化方法( )顯著改善了自編碼器的平滑插值能力,這不只能提升自編碼器的泛化能力,對於後續任務的表徵學習也會大有幫助。

何愷明

 

何愷明,2003年廣東9名高考狀元之一,本科就讀於清華大學,。博士畢業於香港中文大學多媒體實驗室,研究生導師爲湯曉鷗。 何愷明與他的同事開發了深度殘餘網絡(ResNets),目前是計算機視覺領域的流行架構。ResNet也被用於機器翻譯、語音合成、語音識別和AlphaGo的研發上。 2009年,何愷明成爲首獲計算機視覺領域三大國際會議之一CVPR「最佳論文獎」的中國學者。 何愷明做爲第一做者得到了CVPR 2009,CVPR 2016和ICCV 2017(Marr Prize)的最佳論文獎,並得到了ICCV 2017最佳學生論文獎。 2017年4月,何愷明獲選香港中文大學(中大)工程學院傑出校友。

進入FAIR部門以後,何愷明的動向一直備受關注,在3月份左右,他和FAIR 研究工程師吳育昕提出了組歸一化(Group Normalization)方法,試圖以小批尺寸實現快速神經網絡訓練,這種方法對於硬件的需求大大下降,並在實驗中超過了傳統的批歸一化方法。這篇論文也得到了ECCV 2018最佳論文(2018年9月13日,ECCV 2018 獲獎論文公佈,吳育昕與何愷明合做的《Group Normalization》得到了最佳論文榮譽提名獎。)

6月19日,CVPR 2018獎項出爐,何愷明得到本屆大會的 PAMI 年輕學者獎。

8月份的時候,何何愷明等多名研究者發表了一項獨特的遷移學習研究,無需數據清洗和手工標記數據,經過訓練大型卷積網絡能夠預測數十億社交媒體圖像的hashtag,在圖像分類和目標檢測任務上都獲得了迄今最高的精度。

11月22日,何愷明等人在arxiv貼出一篇重磅論文,題爲《Rethinking ImageNet Pre-training》,代表ImageNet 預訓練模型並不是必須,ImageNet 能作的只是加速收斂,對最終物體檢測的精度或實例分割的性能並沒有幫助。

陳天奇

 

陳天奇,華盛頓大學計算機系博士生,研究方向爲大規模機器學習。他曾得到 KDD CUP 2012 Track 1 第一名,並開發了 SVDFeature,XGBoost,cxxnet 等著名機器學習工具,是 Distributed (Deep) Machine Learning Common 的發起人之一。

2018年5月份,陳天奇以及上海交通大學和復旦大學的研究團隊提出一個基於學習的框架( ),以優化用於深度學習工做負載的張量程序。該研究使用基於機器學習的方法來自動優化張量運算核心並編譯AI工做負載,從而能夠將最優的性能部署到全部硬件。實驗結果代表,該框架可以爲低功耗CPU,移動GPU和服務器級GPU提供與最早進手工調優庫相媲美的性能。

7月12日,陳天奇團隊推出 Versatile Tensor Accelerator(VTA),這是一種開放、通用、可定製的深度學習加速器。VTA是一種可編程加速器,提供了 RISC風格的編程抽象來描述張量級的操做。VTA的設計體現了主流深度學習加速器最突出和最多見的一些特徵,好比張量操做、DMA加載 /存儲和顯式的計算 /內存調節。

谷歌:Deep Mind人工智能實驗室

DeepMind位於英國倫敦,是由人工智能程序師兼神經科學家戴密斯·哈薩比斯(DemisHassabis)等人聯合創立,是前沿的人工智能企業,其將機器學習和系統神經科學的最早進技術結合起來,創建強大的通用學習算法。最初成果主要應用於模擬、電子商務、遊戲開發等商業領域。谷歌於2014年收購了該公司。目前,Google旗下的 DeepMind 已經成爲 AI 領域的明星 。

2018年2月27日,Deepmind提出了命名爲「獨角獸(Unicorn)」的智能體架構,它展現出優秀的持續學習能力,已經賽過不少基準智能體。研究人員表示,獨角獸經過利用並行的off-policy學習策略,統一表示和學習多種策略,才達到了這樣的表現。

7月28日,發表的論文《Machine Theory of Mind》中,研究人員提出了一種新型神經網絡 ToMnet,具有理解本身以及周圍智能體心理狀態的能力。該論文已被 ICML 2018 接收爲 Oral 論文。

8月13日,與倫敦 Moorfields 眼科醫院合做,已經訓練其算法可以檢測出超過 50 種威脅視力的病症,其準確度與專家臨牀醫生相同。它還可以爲患者正確推薦最合適的行動方案,並優先考慮那些最迫切須要護理的人。

10月,發表了一篇題爲《Do Deep Generative Models Know What They Don’t Know?》( )的論文。該論文提出,過去學界廣泛認爲神經網絡在面對和訓練數據分佈不一樣的數據時容易產生錯誤的預測,而生成模型則在這個問題上魯棒性更強。不過他們發現基於流程的模型,VAE和PixelCNN的模型密度沒法區分常見物體。

11月14日,宣佈旗下的健康部門DeepMind Health、以及負責推動「Streams」(幫助醫生更快識別和診斷患者病情的移動APP)團隊將調整合併到Google 最新成立的「Google Health」部門中。原子公司DeepMind Health將再也不做爲獨立品牌存在,可是,DeepMind的其餘部門仍將保持獨立。

11月16日,DeepMind表示其與英國眼科醫院Moorfields合做的人工智能醫療研究項目已進入下一階段。該項目旨在探索人工智能技術在眼部疾病診療方面的應用。8月時DeepMind發佈了該項目的第一批結果,該結果代表人工智能能夠與專家人類醫生的表現相匹配,爲50多種眼病的正確療程提供建議。DeepMind表示,基於這項研究成果,該項目已經進行到下一個研究階段,在症狀出現以前預測眼病和預防嚴重疾病。

12月5日,DeepMind宣佈推出全新的AlphaFold系統,可以預測並生成蛋白質的3D結構。這一系統在國際蛋白質結構預測競賽(CASP)上擊敗了其他的參會選手。

12月,ICLR 2019 接收論文名單放出,DeepMind & Google 的脣讀技術論文《LARGE-SCALE VISUAL SPEECH RECOGNITION》( )未被接收。評審們認爲即便它在工程上和數據上都很是突出,但大模型加上大數據會提高性能是共識,這類改進不能被看做是貢獻。

今年年初,DeepMind和牛津大學提出了注意力神通過程。研究者認爲,神通過程(NP)存在着一個根本的不足——欠擬合,對其所依據的觀測數據的輸入給出了不許確的預測。他們經過將注意力歸入NP來解決這個問題,容許每一個輸入位置關注預測的相關上下文點。研究代表,這大大提升了預測的準確性,顯著加快了訓練速度,並擴大了能夠建模的函數範圍。

谷歌:Google Brain團隊

Google Brain是谷歌的人工智能研究小組,由Jeff Dean, Greg Corrado和Andrew Ng共同成立。成立於2011年的谷歌大腦,目前有正式成員48名,團隊負責人是傳奇人物Jeff Dean。在這個團隊中,還包括部分供職的泰斗級人物Geoffrey E. Hinton,以及Martín Abadi、Michael Burrows等資深科學家。另外,谷歌首席科學家Vincent Vanhoucke也在谷歌大腦團隊中。

2018年2月,Ilya Tolstikhin 等人提出了生成模型新算法:Wasserstein 自編碼器,其不只具備VAE的一些優勢,更結合了GAN結構的特性,能夠實現更好的性能。該研究的論文《Wasserstein Auto-Encoders》( )被在 4 月 30 日於溫哥華舉行的 ICLR 2018 大會接收。

2018年4月,谷歌架構調整。谷歌大腦(Google Brain)聯合創始人傑夫·迪恩(Jeff Dean)將領導谷歌全部人工智能領域的項目。

在5月份的ICLR 2018中,和卡內基梅隆大學的研究者提出一種新型問答模型 QANet (),該模型去除了該領域此前經常使用的循環神經網絡部分,僅使用卷積和自注意力機制,性能大大優於此前最優的模型。 來自谷歌大腦的研究者在arXiv上發表論文( ),提出一種自動搜索合適數據加強策略的方法 AutoAugment,該方法建立一個數據加強策略的搜索空間,利用搜索算法選取適合特定數據集的數據加強策略。此外,從一個數據集中學到的策略可以很好地遷移到其它類似的數據集上。

8月初,同柏林工業大學的研究人員在最新發表的論文Backprop Evolution ( ),提出一種自動發現反向傳播方程新變體的方法。該方法發現了一些新的方程,訓練速度比標準的反向傳播更快,訓練時間也更短。

Ian等人還提出了對抗正則化方法( )顯著改善了自編碼器的平滑插值能力,這不只能提升自編碼器的泛化能力,對於後續任務的表徵學習也會大有幫助。 此外,Ian和Augustus Odena共同提出了一種新方法覆蓋引導模糊測試(coverage guided fuzzing,CGF),將其應用於神經網絡的測試( ),該方法可以自動Debug神經網絡。Goodfellow表示,但願這將成爲涉及ML的複雜軟件迴歸測試的基礎,例如,在推出新版本的網絡以前,使用fuzz來搜索新舊版本之間的差別。此外開源了名爲TensorFuzz的CGF軟件庫。

在11月的時候公開了一篇論文「Simple, Distributed, and Accelerated Probabilistic Programming」( ),發表於NIPS 2018。論文提出了一種簡單的方法,用於將機率編程嵌入到深度學習生態系統。這種簡單分佈式、加速的機率編程,能夠將機率程序擴展到512個TPUv二、1億+參數的模型。

年末的NeurIPS 2018上,密歇根大學和谷歌大腦的研究人員提出了一種新的面向NLP任務的機器學習新架構( ),不只可以根據給定的實例生成句子,並且可以在保留句子意思的狀況下,改變句子表達的感情、時態、複雜度等屬性。

今年初,CMU聯合谷歌大腦、谷歌 AI 發表了一篇論文《Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context》( )。Transformer 網絡具備學習更長期依賴性的潛力,但這種潛力每每會受到語言建模中上下文長度固定的限制。在此論文中,研究人員提出了一種叫作 Transformer-XL 的新神經架構來解決這一問題,它能夠在不破壞時間一致性的狀況下,讓 Transformer 超越固定長度學習依賴性。

Facebook : FAIR(Facebook’s Artificial Intelligence Research)

五年前,Yann Lecun創立了 Facebook 人工智能研究院(FAIR),旨在經過開放研究推動人工智能的發展,並惠及全部人。FAIR 的目標是理解智能的本質,以創造真正的智能機器。自此之後,FAIR不斷髮展,併成長爲一個國際研究組織,在門洛帕克、紐約、巴黎、蒙特利爾、特拉維夫、西雅圖、匹茲堡、倫敦都設有實驗室。人工智能已經成爲 Facebook 的核心,所以 FAIR 如今是更大的 Facebook AI組織的組成部分,該組織致力於人工智能研發的各個方面,從基礎研究到應用研究和技術開發。FAIR團隊常常早早地發佈前沿研究成果,並儘量地開源研究代碼、數據集和工具(如PyTorch、fastText、FAISS、Detectron)。這種方法也成功地推進了人工智能的研究發展。今年,FAIR 的研究人員已經得到了普遍承認,在 ACL、EMNLP、CVPR、ECCV 等大會得到了最佳論文獎,在 ECCV、ICML 和 NeurIPS會議上得到了時間檢驗獎(Test of Time award)。開放的工做可讓每一個人在人工智能領域取得更快的進步。

4月初,FAIR 研究人員提出兩種機器翻譯模型的變體,一種是神經模型,另外一種是基於短語的模型。研究者結合了近期提出的兩種無監督方法,並簡化告終構和損失函數,得出的新模型性能更優,且易於訓練和調參。

5月13日,開源了圍棋 AI ELF OpenGo訓練模型及代碼,它基於現有的強化學習研究平臺 ELF,擊敗了世界圍棋冠軍。

6月19日,FAIR開源了 DensePose,這是一個能將人體全部像素的 2D RGB 圖像實時映射到 3D 人體模型的應用。這一模型利用 COCO 數據集中 50K 張密集型人體對應關係的標註,並在有遮擋和尺度變換等天然狀況下能準確實現密集型人體姿態估計。

11月初,FAIR 和紐約大學的研究者合做開發了一個新的天然語言推斷語料庫 XNLI,該語料庫將 MultiNLI 的測試集和開發集擴展到 15 種語言,包括斯瓦西里語和烏爾都語等低資源語言。XNLI 是跨語言句子理解的基準,實際可用且具有必定難度,有助於帶來更好的跨語言理解方法。 在年末,FAIR宣佈推出 PyText 的開源版本,它是Facebook正在使用的主要天然語言處理(NLP)建模框架,目前天天在爲 Facebook 及其應用程序系列的用戶提供超過 10 億次 AI 任務處理;同時FAIR開源了全卷積語音識別工具包wav2letter++。

今年年初,FAIR Alexander Kirillov、何愷明等人在《Panoptic Feature Pyramid Networks》()提出全景特徵金字塔網絡。該論文提出的全景特徵金字塔網絡結合了分別用於語義分割和實例分割的 FCN 和 Mask R-CNN,在兩種任務基線上有很好的穩健性和準確率。

MIT : CSAIL(Computer Scienceand Artificial Intelligence Laboratory)

MIT的CSAIL最初是兩個實驗室:計算機實驗室創辦於1963年,人工智能實驗室創辦於1959年,兩個實驗室在2003年正式合併。 CSAIL是MIT最大的實驗室,也是世界上最重要的信息技術研發中心。CSAIL的成員創立了多於100家知名公司,包括機器人之父科林·安格爾,iRobot公司創始人之一海倫·格雷納,波士頓動力公司創始人馬克·雷伯特,還有卡內基·梅隆大學機器人研究所的負責人馬特·梅森。

4月初,CSAIL研發出一種名爲Pixel Player系統( ),可以經過大量無標籤的視頻來學習聲音定位,更強大的是,Pixel Player可以把聲音與聲源的像素點進行分離,並完美作到視覺與聲音的同步,「想聽哪裏點哪裏」。同時,利用Pixel Player系統,用戶可以對圖像中不一樣的聲音分別進行音量調節,實現簡單的音頻編輯。 此外還提出了一款名爲 RoadTracer 的道路採集系統。針對道路交匯路段,RoadTracer 的採集準確率能達到 45%,遠高於傳統圖像分割方法的 19%。

5月初,CSAIL1的研究人員開發了一種全新的系統 MapLite,這種系統容許無人車在不依賴 3D 地圖的狀況下,在未知的道路上駕駛。此外,該系統還能將 Google 地圖上的 GPS 數據與一系列傳感器收集到的路況信息結合起來。

7月,CSAIL和電子工程與計算機科學系( EECS )的研究人員開發了一種模型用於更有效的選擇先導分子。該模型輸入分子結構數據,建立分子圖片,詳細展現分子結構,節點表明原子,邊線表明化學鍵。這些圖又被分解成更小的有效官能團簇,成爲「構件」,用於實現更精確的分子重構和修飾。

8月,CSAIL正式發佈編程語言Julia 1.0,這門由MIT CSAIL 實驗室開發的編程語言結合了 C 語言的速度、Ruby 的靈活、Python 的通用性,以及其餘各類語言的優點於一身,而且具備開源、簡單易掌握的特色。

10月4日,CSAIL和QRCI(卡塔爾計算研究所)宣佈研究出一種能夠識別虛假新聞在傳播前的來源和我的政治偏見的AI系統。他們所使用的機器學習算法利用現有文章集合來衡量給定出口的準確性和誤差,該系統或可將不可信賴的新聞信息自動分類。

在12月發表的論文Deep sequential models for sampling-based planning( )中,研究人員展現了他們的模型在兩個環境中的優點:經過具備陷阱和狹窄通道的具備挑戰性的房間導航,以及在避免與其餘Agent碰撞的區域導航。一個有前途的現實世界應用程序正在幫助自動駕駛汽車在十字路口行駛,在那裏他們必須在併入交通以前快速評估其餘汽車將作什麼。目前,研究人員正經過豐田凱撒爾聯合研究中心來研究這些應用。 NeurIPS 2018中,CSAIL和谷歌的研究人員發表了一篇論文,描述了一個可以生成具備逼真紋理的人工智能系統——視覺對象網絡(Visual Object Networks,VON),不只生成的圖像比當前最早進的方法還要逼真,還能夠進行形狀和紋理編輯、視角轉換以及其它3D調整。

UC Berkeley : BAIR(Berkeley Artificial Intelligence Research)

加州大學伯克利分校的人工智能研究室(Berkeley Artificial Intelligence Research)主要研究領域涵蓋計算機視覺、機器學習、天然語言處理、規劃和機器人等(computer vision,machine learning,natural language processing, planning, and robotics)。其中的機器人和智能機器實驗室,致力於用機器人複製動物的行爲。其自動化科學和工程實驗室從事更普遍的機器人功能的研究,如機器人輔助外科手術和自動化製造。還有計算機可視化小組,學生能夠學到如何幫助機器人能「看的見」。

4月的時候,BAIR介紹了他們對於運動建模的最新研究成果DeepMimic模型,他們使用動做捕捉片斷訓練本身的模型。訓練中着力減少跟蹤偏差並採用提早終止的方法來優化訓練結果。訓練模型最終表現優秀。

6月,BAIR發表博客論文Delayed Impact of Fair Machine Learning,討論了靜態公平性準則的長期影響,發現結果和人們的指望相差甚遠。相關論文被 ICML 2018 大會接收( )。

6月的時候還發布了迄今爲止規模最大、最多樣化的開放駕駛視頻數據集BDD100K。該數據集共包含 10 萬個視頻,BAIR 研究者在視頻上採樣關鍵幀,併爲這些關鍵幀提供註釋。此外,BAIR 還將在 CVPR 2018 自動駕駛 Workshop 上基於其數據舉辦三項挑戰賽。

10月18日,BAIR開源了DeepMimic( )。DeepMimic使用強化學習技術,用動做捕捉片斷訓練模型,教會了AI智能體完成24種動做,包括翻跟斗、側翻跳、投球、高踢腿等等,動做很是流暢天然。

BAIR的研究人員還提出了一種從視頻中學習技能的框架(skills from videos,SFV),結合了前沿的計算機視覺和強化學習技術構建的系統能夠從視頻中學習種類繁多的技能,包括後空翻和很滾翻等高難度動做。同時智能體還學會了在仿真物理環境中復現這些技能的策略,而無需任何的手工位姿標記。

BAIR年底的一篇Visual Foresight: Model-Based Deep Reinforcement Learning for Vision-Based Robotic Control( )論文中,提出了一種自我監督的基於模型的方法,在這種方法中,預測模型學習直接從原始感官讀數(如攝像機圖像)預測將來,證實了可視化MPC能夠歸納爲從未見過的對象並使用相同的模型解決一系列用戶定義的對象操做任務。

蒙特利爾大學 : MILA(Montreal Institute for Learning Algorithms)

加拿大蒙特利爾如今被媒體稱做是人工智能的「新硅谷」。加拿大廣播公司報道說,這個功勞,主要歸功於「深度學習三巨頭」之一的Yoshua Bengio。他是MILA(Montreal Institute for Learning
Algorithms)的創始人,帶領團隊進行人工智能研究已經有超過10年的時間。由蒙特利爾大學 (University of Montreal )的計算機學教授Yoshua Bengio帶領,MILA在深度學習(deep learning)和深度神經網絡(辨別型和生成型)(deep neural networks, both discriminative and generative)等領域都有開創性研究,並應用到視覺、語音和語言方面等領域。

4月,MILA提出了一種有助於提高深度網絡在應對對抗攻擊方面的穩健性的模型:防護加強型網絡(Fortified Networks)。該研究已提交 ICML 2018 ( )。

10月,Yoshua Bengio及其小組提出了一個叫作「BabyAI」的研究平臺用來訓練人工智能從頭學習和理解人類語言,每一個單詞背後的意思究竟是什麼。該平臺包括一個有效模擬的網格世界環境(MiniGrid)和一些被稱之爲Level的指令跟隨任務,所有由合成語言的子集(嬰兒語言)造成。平臺還提供了一個模擬人類的啓發式專家,用於模擬人類教師。

斯坦福:SAIL(Stanford Artificial Intelligence Laboratory)

去年一年裏,SAIL所得到的最佳論文:
Yuanzhi Li, Tengyu Ma, Hongyang Zhang. Algorithmic Regularization in Over-parameterized Matrix Sensing and Neural Networks with Quadratic Activations. Best paper award at COLT 2018.
在論文中探討了了梯度降低法爲訓練過參數化的矩陣分解模型,以及使用二次函數做爲激活函數 的單隱含層神經網絡提供了隱式的正則化效果。
Pranav Rajpurkar, Robin Jia, Percy Liang. Know What You Don’t Know : Unanswerable Questions for SQuAD.. Best short paper ACL 2018. 在這篇論文中,SAIL提供了SQuAD 2.0,這是斯坦福問答數據集(SQuAD)的最新版本。SQuAD 2.0將現有的SQuAD數據與5萬多個沒法回答的問題結合在一塊兒,這些問題由衆包人員以相反的方式撰寫,看起來與可回答問題相似。爲了在SQuAD 2.0上取得好成績,系統不只必須儘量回答問題,還要肯定什麼時候段落不支持答案而且不回答問題。SQuAD 2.0對於現有模型來講是一個具備挑戰性的天然語言理解任務:在SQuAD 1.1上得到86% F1的強大的神經系統在SQuAD 2.0上僅得到66%F1。
Rob Voigt, Nicholas P. Camp, Vinodkumar Prabhakaran, William L. Hamilton, Rebecca C. Hetey, Camilla M. Griffiths, David Jurgens, Dan Jurafsky, and Jennifer L. Eberhardt. Language from police body camera footage shows racial disparities in officer respect. Cozzarrelli Prize (best paper in PNAS).
這篇論文利用隨身攜帶的攝像機拍攝的錄像,分析了警察語言在平常交通中對白人和黑人社區成員的尊重程度,發現即便在控制了警察的種族、違法行爲的嚴重程度、停車地點和停車結果以後,警察對黑人和白人社區成員的尊重程度也一直較低。 Amir Zamir, Alexander Sax, William Shen, Leonidas Guibas, Jitendra Malik, Silvio Savarese. Taskonomy:Disentangling Task Transfer Learning. Best paper award at CVPR 2018.
這篇論文提出了一種計算不一樣任務類似性的方法,以及利用不一樣任務類似性,在少許訓練數據條件下進行多任務組合學習的分配方法。文章的最終目標是經過計算任務類似性,進一步計算選取針對目標任務的多任務組合進行訓練,並實現以少許數據儘量接近全監督學習的性能。
Zi Ye, Olga Diamanti, Chengcheng Tang, Leonidas Guibas, Tim Hoffmann. A unified discrete framework for intrinsic and extrinsic Dirac operators for geometry processing. 1st Place best paper award at SGP 2018.
本文考慮了一對離散的Dirac算子,後者對應於每一個面上定義了多邊形面和正態線的離散面,並證實了光滑理論的許多關鍵性質。特別地,討論了相應的自旋變換、它們的保角不變量以及這一算符與其內在對應算符之間的關係。
Jingwei Huang, Yichao Zhou, Matthias Nießner, Jonathan Shewchuk, Leonidas Guibas. QuadriFlow: A Scalable and Robust Method for Quadrangulation. 2nd Place best paper award at SGP 2018.
本文提出的算法是在Instant Field-Aligned Meshes 這篇文章的基礎提出的。本文提出了一種有效的方法,經過將實時網絡目標與線性和二次約束系統相結合來最小化奇點。經過解決全局最小成本網絡流問題和本地布爾滿意度問題來實施這些約束。利用本文算法生成的四邊形質量與其餘方法同樣好,並且運行速度較快。其餘的外部算法產生的奇點比較慢,本文的算法花費不到10秒鐘來處理每一個模型。

Hongseok Namkoong, John Duchi. Variance-based Regularization with Convex Objectives. Best paper award at NIPS 2017.

這篇文章研究了一種風險最小化和隨機優化的方法,該方法能夠爲方差提供一個凸屬性的替代項,並容許在逼近和估計偏差間實現近似最優與高效計算間的權衡。

卡內基梅隆大學

卡內基梅隆大學(Carnegie Mellon University)一直是衆所周知的計算機領域大牛。自人工智能(ArtificalIntelligence)領域建立以來,卡內基梅隆大學一直在全球引領AI的研究、教育和創新。在18年秋季,其計算機學院開設全美第一我的工智能本科專業。

CMU團隊最新的主要研究成果以下:

CMU的陳鑫磊(現Facebook 研究科學家)、Abhinav Gupta,谷歌的李佳、李飛飛等人提出的一種新型推理框架《Iterative Visual Reasoning Beyond Convolutions》( ),其探索空間和語義關係的推理性能大大超過了普通卷積神經網絡,被評爲 CVPR 2018 大會 Spotlight 論文。

年中時候,在讀博士劉寒驍、DeepMind 研究員 Karen Simonyan 以及 CMU 教授楊一鳴提出的「可微架構搜索」DARTS 方法基於連續搜索空間的梯度降低,可以讓計算機更高效地搜索神經網絡架構。該研究的論文《DARTS: Differentiable Architecture Search》( )一經發出便引發了 Andrew Karpathy、Oriol Vinyals 等學者的關注。研究者稱,該方法已被證實在卷積神經網絡和循環神經網絡上均可以得到業內最優的效果,而所用 GPU 算力有時甚至僅爲此前搜索方法的 700 分之 1,這意味着單塊 GPU 也能夠完成任務。

10月份的時候,來自英特爾實驗室和卡內基梅隆大學的研究員提出了一種用於序列建模的新架構Trellis Network。研究員聲稱,Trellis Network吸取了循環神經網絡和卷積神經網絡中的結構和算法元素。實驗證實,Trellis Network在各類具備挑戰性的基準測試中表現都優於當前的技術水平,包括Penn Treebank和WikiText-103。

在年末,NIPS 2018 對抗視覺挑戰賽中, CMU 邢波團隊包攬兩項冠軍,另外一項冠軍則由來自加拿大的 LIVIA 團隊斬獲,清華 TSAIL 團隊得到「無針對性攻擊」的亞軍。本次比賽共分爲三個單元:防護、無針對性攻擊和有針對性攻擊。

CMU、北大和 MIT 的研究者在年末發表了論文《Gradient Descent Finds Global Minima of Deep Neural Networks》( ),該論文證實了對於具備殘差鏈接的深度超參數神經網絡(ResNet),梯度降低能夠在多項式時間內實現零訓練損失。研究者的分析依賴於神經網絡架構引入的格拉姆矩陣的多項式結構。這種結構幫助研究者證實格拉姆矩陣在訓練過程當中的穩定性,並且這種穩定性意味着梯度降低算法的全局最優性。

伊利諾伊大學大學厄本那香檳分校

伊利諾伊大學厄巴納-香檳分校(University of Illinoisat Urbana-Champaign,縮寫爲UIUC),創建於1867年,是一所享有世界聲望的一流研究型大學。該大學從美國國家科學基金會(NSF)得到研究經費量年年在全美名列第一。位於該大學的美國國家超級計算應用中心(NCSA)在高性能計算、網路和資訊技術的研究和部署領域,一直處於世界領先的地位。

UIUC的最新研究成果以下:

來自北京郵電大學和UIUC的研究者們提出一種適用於密集人羣計數的空洞卷積神經網絡模型 CSRNet,論文《CSRNet: Dilated Convolutional Neural Networks for Understanding the Highly Congested Scenes》()。該網絡模型擺脫以往普遍應用於人羣計數的多通道卷積網絡方案,在大幅削減網絡參數量和網絡訓練難度的同時,顯著提高了人羣計數的精度和人羣分佈密度圖的還原度。該研究已被 CVPR 2018 接收。

UIUC 和 Zillow 的研究者發表《LayoutNet: Reconstructing the 3D Room Layout from a Single RGB Image》( )論文提出了 LayoutNet,它是一個僅經過單張透視圖或全景圖就能估算室內場景 3D 佈局的深度卷積神經網絡(CNN)。該方法在全景圖上的運行速度和預測精度比較好,在透視圖上的性能是最好的方案之一。該方法也可以推廣到非長方體的曼哈頓佈局中,例如「L」形的房間。

極低照明度下,傳統增長亮度的方法會放大噪點和色彩失真。而 UIUC 和英特爾的研究者在《Learning to See in the Dark》( )中經過全卷積網絡處理這一類黑黑的照明度圖像,並在抑噪和保真的條件下將它們恢復到正常亮度。這種端到端的方法將爲機器賦予強大的夜視能力,且還不須要額外的硬件。

相關文章
相關標籤/搜索