GPUImage ==> 一個基於GPU圖像和視頻處理的開源iOS框架

GPUImage.jpg

項目介紹:

GPUImage是Brad Larson在github託管的開源項目。ios

GPUImage是一個基於GPU圖像和視頻處理的開源iOS框架,提供各類各樣的圖像處理濾鏡,而且支持照相機和攝像機的實時濾鏡; 基於GPU的圖像加速,所以能夠加速對實時攝像頭視頻、電影以及image的濾鏡和其它效果處理,而且可以自定義圖像濾鏡。另外, GPUImage支持ARC。git

使用GPUImage處理圖片比Core Image更簡單,只須要將過濾器賦給圖片對象便可,不用考慮context或者設備等其餘問題。GPUImage提供了除高斯模糊外的其餘幾種不一樣效果的模糊,雖然Core Image也提供了幾種模糊效果,但目前在iOS上能用的就只有高斯模糊,而GPUImage可用的有FastBlur, GaussianBlur, GaussianSelectiveBlur 和 BoxBlur。此外,做爲開源框架的GPUImage還支持自定義的過濾器。github

開發語言:Objective-Capi

License:

BSD 3-clause "New" or "Revised" License app

連接:

附錄

GPUImage frameworkspa

10大iOS開發者最喜好的類庫.net

Quora上關於GPUImage的討論

Learning OpenGL with GPUImage

 

GPUImage是如今作濾鏡最主流的開源框架,沒有之一。做者BradLarson基於openGL對圖片處理單元進行封裝,提供出GPUImageFilter基類,配合shader,經常使用濾鏡都拿下不是問題。  

下面大體講解下GPUImage裏的一些基本概念,爲了表達方便。已經知道請跳過

GPUImage中的幾個概念

⁃ output爲輸出源

⁃ intput爲輸入源

⁃ filter爲濾鏡

因此一個完整的濾鏡處理流程是這樣的: output+X+input,X就是濾鏡組(1+個濾鏡)。GPUImage爲了方便,新版本中提供了GPUImageFilterPipeline 這個東東,方便用戶使用多個濾鏡組合,不用擔憂先後的鏈式邏輯。

GPUImage做者將圖片濾鏡處理和動態濾鏡是分開了的,動態濾鏡是按照上面那個流程,但圖片處理倒是以(output+filter)*X + input這種邏輯。若是處理一張圖片的效果須要用到多個濾鏡組合,用一個濾鏡生成一張圖片output,而後傳給下一個濾鏡處理,這個過程當中若是濾鏡疊加次數比較多,或者這個濾鏡效果被調用屢次,這樣消耗的內存是貼別大的,每一個濾鏡處理後導出的圖片output都存在內存中,若是原圖特別大,那麼恭喜。。估計內存要爆了。

我在作濾鏡app的時候,都是以output+X+input這種模式來處理的,這樣代碼邏輯單一,效率高,吃內存也沒那麼多。看了源碼知道output +X+ input ,當X爲多個時,上個濾鏡n處理獲得的紋理,還存在GPU顯存中,GPU直接將這張紋理傳給了n+1做爲其output,這樣整個濾鏡流程下來,只有一張紋理內存的佔用。

以這條線來走,過程當中基本就沒遇到什麼問題,只是代碼結構設計和封裝耗時。最後濾鏡模塊作完實用到項目裏,發現濾鏡模塊調用完了之後,內存上去了下不來,我遇到了這問題時,反覆檢查,全部GPUImage相關元素都已經釋放了,那麼增長的內存是哪兒來的呢?後來想到了顯存,arc環境下,只負責回收oc對象的內存,顯存天然須要GPUImage使用者本身來回收,這樣也就容易了,翻GPUImage的api,找到了

GPUImageContext中有個framebufferCache ,就是它了

 

[[GPUImageContextsharedImageProcessingContext].framebufferCachepurgeAllUnassignedFramebuffers]。

相關文章
相關標籤/搜索