開發者社區技術週刊又和你們見面了,讓咱們一塊兒看看,過去一週有哪些值得咱們開發者關注的重要新聞吧。segmentfault
技 術 要 聞安全
Industry News網絡
一、軟件綠色聯盟《新一代 3D 數據文件統一技術規範 1.0》正式發佈框架
據軟件綠色聯盟消息,由京東、華爲、阿里巴巴、騰訊、網易、Cocos、艾迪普等企業聯合制定的《新一代 3D 數據文件統一技術規範 1.0》(下稱《規範 1.0》)正式發佈。工具
本次發佈的《規範 1.0》主要範圍包括:性能
二、Flash再見!Adobe播放器1月1日起正式停運學習
三、深度操做系統 deepin 新版發佈測試
深度操做系統 deepin 20.1 (1010) 已發佈,新版本採用了穩定版的 Kernel 5.8 內核,將底層系統升級至 Debian 10.6,提高了系統穩定性和兼容性,還更新了深度全家桶應用,並針對啓動時間、安裝時間、資源佔用、啓動響應等方面進行了優化。優化
四、中國電信推出業內首款量子安全通話產品「量子密話」動畫
近日,中國電信正式對外宣佈推出行業內首款量子安全通話產品「量子密話」,使用量子信息技術保護通話安全。量子信息技術主要分爲量子通訊、量子計算、量子測量三大領域,其中量子通訊技術正在從基礎科學研究階段進入產業化應用階段。_本次推出的「量子密話」是使用量子隨機數和量子密鑰分發機制生成認證密鑰和通話密鑰,實現了通話過程當中從主叫方手機到被叫方手機間的端到端的加密。_目前我國已經建成全球規模最大的量子通訊網絡,量子通訊目前已經初步具有商用條件,做爲保障將來社會信息安全的關鍵技術,將來量子通訊將有望在政務、金融、商務、醫療、國防、電力等多個領域實現大規模應用。
五、圖靈測試已過期,AI 須要新基準測試
圖靈(Alan Turing)在 1950 年發表了模仿遊戲論文引入圖靈測試去回答「機器可否思考」這個問題。測試的目的是判斷機器是否能表現出人類也沒法區分的對話行爲。圖靈預言,到 2000 年在模仿遊戲中普通人能區分人與機器人的機率將會低於 70%。亞馬遜語音助手 Alexa 部門的首席科學家 Rohit Prasad 認爲,隨着 AI 被普遍整合到手機、汽車和家庭,人們如今關心的是人機之間的互動,而不是區分機器和人類。他認爲圖靈測試過期了,AI 須要新基準測試。Rohit Prasad 指出,最近幾年的聊天機器人程序已經能欺騙三成以上的裁判相信它是人類,而愚弄 30% 的裁判這一閾值其實是任意設定的,並沒有多大的意義。
六、微軟文件確認 Win10 Cloud PC 雲電腦升級
此前有消息稱,微軟正在祕密研發 Windows 10 Cloud PC,這是一項新服務,將容許用戶在幾分鐘內從任何設備訪問桌面應用。Windows 10 Cloud PC 預計將在 2021 年 3 月到 6 月之間的某個時候發佈,如今網上已經泄露了圍繞該服務的新的使人興奮的細節。_首先,Cloud PC 是一項基於 Azure 的新服務,創建在 「Windows 虛擬桌面」之上_,它旨在從新定義 「現代工做場所」,並完全改變計算環境。_Cloud PC 電腦至少會有三種不一樣的配置——中級(通用計算)、重型(性能更好)和高級(商業客戶)。_根據一份新的支持文件,Cloud PC 還將使用微軟 Graph 技術,這是一個用於實時協做、Azure 集成和其餘功能的工具。微軟 Graph v1.0 已經更新,包括 Cloud PC 的新 API,這代表這項新服務可能會在不久的未來推出。微軟在文件中指出:「Cloud PC API 處於預覽階段,目前僅對特定客戶羣體開放」。
學 術 前 沿
Academic News
一、AAAI 2021 | 在手機上實現19FPS實時的YOLObile目標檢測
本文提出了一套模型壓縮和編譯結合的目標檢測加速框架,根據編譯器的硬件特性而設計的剪枝策略可以在維持高 mAP 的同時大大提升運行速度,壓縮了 14 倍的 YOLOv4 可以在手機上達到 19FPS 的運行速度而且依舊維持 49mAP(COCO dataset)的高準確率。相比 YOLOv3 完整版,該框架快出 7 倍,而且沒有犧牲準確率。該框架由美國東北大學王言治研究組和威廉瑪麗學院任彬研究組共同提出。
論文連接:https://arxiv.org/abs/2009.05697
二、RealFormer:把殘差轉移到Attention矩陣上面去
Layer Normalization 是 Transformer 模型的重要組成之一,它的用法有 PostLN 和 PreLN 兩種,論文 On Layer Normalization in the Transformer Architecture 中有對二者比較詳細的分析。簡單來講,就是 PreLN 對梯度降低更加友好,收斂更快,對訓練時的超參數如學習率等更加魯棒等,反正一切都好但就有一點硬傷:PreLN 的性能彷佛總略差於 PostLN。最近 Google 的一篇論文提出了 RealFormer 設計,成功地彌補了這個 Gap,使得模型擁有 PreLN 同樣的優化友好性,而且效果比 PostLN 還好,可謂「魚與熊掌兼得」了。
論文連接:https://arxiv.org/abs/2012.11747
以上信息來源於網絡,由「京東智聯雲開發者」公衆號編輯整理,不表明京東智聯雲立場
歡迎點擊【京東智聯雲】,瞭解開發者社區
更多精彩技術實踐與獨家乾貨解析
歡迎關注【京東智聯雲開發者】公衆號