本文做者:楊蕊1002算法
飛槳(PaddlePaddle)是國內惟一功能完備的端到端開源深度學習平臺,集深度學習訓練和預測框架、模型庫、工具組件、服務平臺爲一體,其兼具靈活和效率的開發機制、工業級應用效果的模型、超大規模並行深度學習能力、推理引擎一體化設計以及系統化的服務支持,致力於讓深度學習技術的創新與應用更簡單。服務器
從Paddle Fluid v1.0以來,飛槳致力於打造更好的用戶體驗,趁着百度開發者大會,也爲用戶精心準備了一份大禮,在開發、訓練及部署全流程上進行了全新升級,發佈了飛槳的五大特性。接下來小編爲您一一解讀。網絡
1、動態圖&靜態圖 - 兼具動態圖和靜態圖兩種計算圖的優點框架
從飛槳核心框架Padlde Fluid v1.5開始,飛槳同時爲用戶提供動態圖和靜態圖兩種機制。靜態圖是先定義網絡結構然後運行,對定義好的圖結構進行分析,可使運行速度更快,顯存佔用更低,在業務部署上線上的具備很是大的優點,爲用戶的AI應用落地提供高效支持。可是靜態圖組網和執行階段是分開,對於新用戶理解起來不太友好。分佈式
飛槳從最新版本開始,提供了更方便的動態圖模式,全部操做能夠當即得到執行結果,而沒必要等到執行階段才能獲取到結果,這樣能夠更方便進行模型的調試,同時還減小了大量用於構建Executor等代碼,使得編寫、調試網絡的過程變得更加便捷。用戶可使用更加便捷的動態圖模式進行調試、訓練,而後能夠把訓練好的模型轉換爲靜態圖的結構,快速上線部署。ide
2、應用效果最佳的官方模型 – 覆蓋三大主流任務模塊化
基於百度多年的產業應用經驗,以及百度生態夥伴的人工智能解決方案實踐,飛槳爲用戶提供70+精選通過真實業務場景驗證的、應用效果最佳的官方算法模型,涵蓋視覺、NLP、語音和推薦等AI核心技術領域。工具
飛槳天然語言處理模型庫PaddleNLP:基於飛槳打造的工業級中文NLP開源工具集,擁有當前業內效果最好的中語義表示模型和基於百億級大數據訓練的預訓練模型,並將天然語言處理領域的多種模型用一套共享骨架代碼實現,可大大減小用戶在開發過程當中的重複工做。用戶在極大地減小研究和開發成本的同時,也能夠得到更好的基於工業實踐的應用效果。本次發佈PaddleNLP-Research,支持NLP前沿研究,現已開源MRQA2019閱讀理解競賽Paddle Fluid基線、 DuConv (ACL2019)、ARNOR(ACL2019)、MMPMS(IJCAI2019)、MPM(NAACL2019) 等近期百度在 NLP 學術領域的工做。性能
飛槳視覺模型庫PaddleCV:基於飛槳打造的業界效果最好的CV開源工具集,並開源多個百度自研、國際賽事奪冠方案模型。物體檢測統一框架、圖像分類庫、圖像生成庫、視頻識別庫多個基礎任務庫中,既具有高精度模型、也具有高速推理模型。基於易擴展、易模塊化的操做,用戶能夠高效完成各種視覺任務的工業應用。學習
基於預訓練模型,用戶能夠更便捷地完成本身的AI應用,飛槳爲用戶提供預訓練模型管理和遷移學習組件PaddleHub,可一鍵加載工業級預訓練模型。本次新增發佈29個預訓練模型,共爲用戶提供40+預訓練模型,覆蓋文本、圖像、視頻三大領域八類模型。PaddleHub提供Fine-tune API,10行代碼便可完成大規模預訓練模型的遷移學習。PaddleHub還引入「模型即軟件」的理念,經過Python API或者命令行工具,一行代碼完成預訓練模型的預測。
3、大規模分佈式訓練 - 業界最強的超大規模並行深度學習能力
飛槳同時支持稠密參數和稀疏參數場景的超大規模深度學習並行訓練,支持千億規模參數、數百個節點的高效並行訓練,也是最先提供如此強大的深度學習並行技術的深度學習平臺。
飛槳提供高性價比的多機CPU參數服務器解決方案,基於真實的推薦場景的數據驗證,可有效地解決超大規模推薦系統、超大規模數據、自膨脹的海量特徵及高頻率模型迭代的問題,實現高吞吐量和高加速比。
基於Paddle Fluid v1.5,分佈式訓練新發布High-level API Fleet,單機轉分佈式訓練成本顯著下降;GPU多機多卡性能顯著提高,在ResNet50、BERT、ERNIE等模型中4x8 v100配置下相比此前發佈的Benchmark提速超過50%。
4、端到端部署 - 推理引擎一體化設計,訓練到多端推理的無縫對接移動端加速
基於Paddle Fluid v1.5,飛槳完整支持多框架、多平臺、多操做系統,爲用戶提供高兼容性、高性能的多端部署能力、全面領先的底層加速庫和推理引擎 Paddle Mobile 和 Paddle Serving。
對於開發者來講,除了模型的訓練,在產品化過程當中還會遇到各類各樣的工程化問題。隨着移動設備被普遍使用,在移動互聯網產品應用深度學習和神經網絡技術已經成爲必然趨勢。例如在移動端部署,就須要面臨不少的問題,例如安裝包大小、運行內存佔用大小、推理速度和效果等。當前主流的模型很難直接部署到移動設備中。在4月份的發佈中,PaddleSlim 實現了目前主流的網絡量化、剪枝、蒸餾三種壓縮策略,並可快速配置多種壓縮策略組合使用。針對體積已經很小的 MobileNet 模型,在模型效果不損失的前提下實現 70% 以上的體積壓縮。
本次版本PaddleSlim更是進一步升級,新增基於模擬退火的自動剪枝策略和輕量級模型結構自動搜索功能Light-NAS,對比MobileNet v2在ImageNet 1000類分類任務上精度無損狀況下FLOPS 減小17%,並在百度的OCR識別、人體檢測、人臉關鍵點檢測等業務線應用,精度無損甚至提升的狀況下,速度帶來了30%~40%的提高。
5、服務支持 – 惟一提供系統化深度學習技術服務的平臺
飛槳已經實現了API的穩定和向後兼容,爲用戶提供從入門教程到安裝編譯文檔、使用手冊、模型文檔、API接口及索引文檔在內的完善的中英雙語使用文檔。同時,提供系統的服務體系爲企業合做夥伴護航,幫助高校和教育夥伴構建完善體系,爲開發者提供不一樣層次的培養體系。
以上爲你們介紹了飛槳的五大特性,想要了解更多或者下載最新版本Paddle Fluid v1.5,請點擊如下連接:http://www.paddlepaddle.org.cn?fr=kaifazhe
最後給你們推薦一個GPU福利 - Tesla V100免費算力!配合PaddleHub能讓模型原地起飛~ 掃碼下方二維碼申請~