民以食爲天,食以農爲本,而農業的根本,在於農田。git
有這樣一羣人,和農田打了一生交道。張磊是一名農場主,每到冬天,他家上千畝農田都會種上冬小麥。播種後的一週裏他天天都要走上幾萬步路巡視農田查看小麥的出苗狀況,遇到颳風下雨的天氣他還會多巡視幾遍,工做辛苦枯燥。github
出苗以後,冬小麥到了返青、拔節、出穗、乳熟、成熟等關鍵生育期時候,巡田工做還會加倍。田是巡了,可是做物生長是否健康,只能依靠他的經驗來判斷。有時候看走「眼」,一大片的做物就可能廢了。網絡
在這個科技蓬勃發展的時代,他的生活裏還有很多「靠天吃飯」的狀況。學習
今年冬天,中科賽諾團隊帶來了一款APP——新農業家,農戶在APP上就能獲得種植地塊信息、農做物生長狀況圖,更早更及時地知道做物生長狀況,從而制定應對策略。經過結合中科賽諾的遙感技術和百度飛槳(PaddlePaddle)的深度學習技術,許多農戶、農技專家足不出戶,經過中科賽諾新農業家APP就能隨時掌握天氣變化數據、市場供需數據、農做物生長數據,準確判斷農做物是否該施肥、澆水或打藥,不只能避免因天然因素形成的產量降低,並且能夠避免因市場供需失衡給農民帶來經濟損失。大數據
當耕地識別遇到AI,「地臉識別」解放工做者spa
構建中科賽諾新農業家APP豐富的智能農業功能的基礎在於——地塊管理,也就是解決農戶種植過程當中的第一步:知道自家的田地在哪兒、有多大面積、種植了什麼做物等。.net
不管種植者仍是相關農業部門,每一年都要作一次耕地識別,由於耕地每一年都有一個變化,因此必須肯定現有耕地的範圍和位置,再分辨這些地塊之間的區別。例如一號地塊可能肥力缺少;二號地塊肥力比較豐富,這樣就能對不一樣耕地施行鍼對性的農事操做。code
在此前,他們主要依靠遙感影像的光譜分析來作地塊識別,這種相對傳統的方法,對數據要求高,前期須要採集大量的樣本數據,不一樣地區的同種做物須要重複採集,且識別的精度不高。blog
地塊信息採集工做十分辛苦,中科賽諾的一位遙感工程師分享到,當時他們要去採集衡水市幾個縣的地塊信息,在連續一週的時間裏,團隊都是早上6點開工,天黑纔回去。遇到須要採集玉米、水稻等種植地時,須要忍受高溫的煎熬,被玉米稈割傷手腳更是屢見不鮮。圖片
中科賽諾的技術團隊也是從這些身體力行中感覺到了農戶們種植過程當中的辛苦。
數據採集以後,工做人員們還要回到市內使用軟件操做,進行樣本數據整理、遙感數據下載、解析等工做。傳統對遙感圖像的處理,依賴於大量擁有遙感專業背景的人工使用專業軟件進行分析。衛星遙感影像數據存在畫幅巨大、肉眼分辨率低、對識別人員專業要求能力高等問題,且人工標註須要大量重複勞動,很是費時費力,枯燥無味。
這一套完整的流程進行下來,識別幾個區域的地塊一般須要半個多月的時間。他們都很是渴望引入新技術,提升耕地巡查的工做效率。
爲了解決農民面臨的難題,中科賽諾團隊基於百度飛槳(PaddlePaddle)創造了自動農耕地塊提取系統,應用飛槳圖像分割庫PaddleSeg中的DeepLabV3+模型實現地塊面積提取,準確率能達到90%以上。基於飛槳的數據採集創建模型後,即便是換了區域,若是做物生長差異不大,也能達到較高的識別率,不須要從新採集數據,系統還能夠快速自動得到農耕用地邊界及面積,對做物長勢、做物分類、成熟期預測、災害監測、估產等工做進行高效輔助,大大減小了傳統人力的投入,將地塊信息採集和分析變成了一件相對簡單的工做。
技術方案揭祕:PaddleSeg語義分割庫
PaddleSeg是基於飛槳生態下的語義分割庫,結合豐富的預訓練模型更便捷高效地進行語義分割。DeepLabv3+是PaddleSeg支持的四個主流分割網絡之一,也是DeepLab語義分割系列網絡的最新做,經過encoder-decoder進行多尺度信息的融合,同時保留了原來的空洞卷積和ASSP層,支持Xception和MobileNetV2兩種骨幹網絡,分別適用於服務端和移動端兩種不一樣場景。而在地塊分割這一場景中,更着重於預測精度,所以模型選型採用DeepLabv3+和Xception65骨幹網絡的組合。
多光譜遙感圖像
傳統的分割網絡只能支持三通道圖片,即RGB彩色圖片做爲輸入。雖然RGB圖像能夠展現地物真實顏色信息,但其反應地物間光譜差別的能力很是有限,致使地塊識別過程當中不一樣地物區分度不大。不一樣的地物類型對於不一樣波段光譜的吸取率和反射率是不一樣的。其中綠色植物的光譜響應特性、植物葉片光譜特徵的造成是因爲植物葉片中化學組分分子結構中的化學鍵在必定輻射水平的照射下,吸取特定波長的輻射能,產生了不一樣的光譜反射率結果。
700~780nm波段是葉綠素在紅(R)波段的強吸取到近紅外(NIR)波段屢次散射造成的高反射平臺的過分波段,又被成爲植被反射率「紅邊」,在NIR波段內,有健康綠色植被覆蓋的區域其反射率會明顯高於其餘地物類型反射率,所以「紅邊」使得綠色植物的反射光譜曲線明顯不一樣於其餘非綠色物體的這一特徵是區分綠色植物與土壤、水體、山石、建築等地物的客觀依據。例如,利用綠色植物在近紅外(NIR)波段內呈現出的高反射率的特徵,能分辨顏色相近但類別不一樣的地塊區域,例如樹木和帶有綠色屋頂的建築在RGB圖像中容易混淆,但經過假彩色影像就能輕鬆識別。
典型地物光譜曲線
地塊真彩色遙感圖像(R、G、B)
地塊NIR波段遙感圖像
地塊假彩色遙感圖像(NIR、G、B)
地塊分割結果
爲彌補普通RGB圖像的不足,PaddleSeg能夠支持四通道光譜照片訓練,除了RGB(b(藍色通道)、g(綠色通道)、r(紅色通道))三個圖像通道,額外拼接NIR(近紅外通道),最後生成四通道的圖片。經過在配置文件中配置
DATASET.IMAGE_TYPE= 」rgba」
便可讓模型支持四通道的圖片格式。並基於DeepLabV3+模型對地塊圖片進行訓練,學習近紅外(NIR)的光譜反射特徵鑑別植被信息,對最終地塊分割精度能帶來5%的提高。
PaddleSeg模型訓練過程可參考:
https://github.com/PaddlePaddle/PaddleSeg/blob/release/v0.2.0/turtorial/finetune_deeplabv3plus.md
成果顯現:農民效益提高10%以上
基於飛槳提供的技術,中科賽諾搭建的智慧農業產業鏈建設,實現了三大功能:
一是對遙感影像耕地信息智能提取,實現了農業遙感數據實時監測分析;二是對農業氣象大數據精準分析,實現了將來三天氣象數據預測精度達95%,將來7天數據預測達到80%,同時對雷暴等極端天氣的雷達圖實時呈現;三是對做物病蟲害分析,識別精度達到90%以上。
在百度飛槳支持下,中科賽諾能爲種植者客戶提供能夠指導農業生產的大數據,包括提早15天肯定做物的適宜收割時間,使農戶能夠根據實際天氣狀況提早安排收割工做;實時獲取農做物的長勢狀況;播種前7天便可得到做物的施肥建議;能夠作到至少爲農戶提升10%的收益,每畝地節省100元以上的成本。
由此,等到張磊的上千畝小麥成熟時,他在APP上一看,就能提早知道有多少畝地的小麥已經成熟,能夠合理安排農業收割機,提升機器的利用率,在一些地區全村也就一臺收割機。同時,經過天氣數據,張磊還能避開下雨的天氣,防止收割的小麥沒法晾曬而致使發黴。
總結與展望
百度飛槳和中科賽諾的合做,爲農業提供的精準、高效、可靠的數據服務,爲糧食的豐產豐收、農民收入的提升、農業的防災減災提供了有力保障。
做爲全面開源開放、功能完備的產業級深度學習平臺,百度飛槳已經成爲全面推進國內產業智能化升級的重要基石。正如飛槳得到第六屆世界互聯網頒發的「世界互聯網領先科技成果」這份榮譽所彰顯的,飛槳技術領先、功能完備、生態豐富等特色向世界展現着中國科技的力量。與此同時,藉助百度大腦與百度智能雲的「雲+AI」領先技術實力,更多的農業從事者已經實實在在感覺到智能農業帶來的便利,再也不「靠天吃飯」。
>> 訪問 PaddlePaddle 官網,瞭解更多相關內容。