Android流媒體開發之路一:Camera2採集攝像頭原始數據並手動預覽

Android Camera2採集攝像頭原始數據並手動預覽

最近研究了一下android攝像頭開發相關的技術,也看了Google提供的Camera2Basic調用示例,以及網上一部分代碼,但都是在TextureView等預覽基礎上實現,而我想要作的是在不預覽的狀況下,能獲取到攝像頭原始數據流,並由本身來決定是否繪製顯示。通過一番折騰,初步實現了本身的目的——CamCap程序。java

需求分析

  其實主要就是在不預覽的狀況下獲取到攝像頭原始數據,目的嘛,一是爲了靈活性,方便隨時開啓關閉預覽,二是爲了之後能夠直接對數據進行處理,三是爲了其餘程序開發作一些準備。因而實現一下幾個功能:android

  • 獲取攝像頭數據,並手動繪製圖像
  • 隨時開啓/關閉預覽
  • 隨時保存當前攝像頭圖像,即便在關閉預覽狀況下

Android Camera2接口

  查閱了一些資料,Android Java層因爲從API21開始,已經廢棄原Camera接口,因此這裏採用Camera2接口。相比Camera接口來講,第二代攝像頭接口,調用複雜多了,可是靈活性也更高了,經過Google的Camera2Basic例子能夠很清楚的瞭解到使用方式。這裏把CamCap程序中的Camera2的調用順序整理以下:c++

和其餘程序同樣,經過ImageReader來獲取到CameraCaptureSession傳遞出來的數據,與Google例子不一樣的是,我取消了把TextureView的傳遞,改成單獨以ImageReader來獲取圖像流,並設置爲YUV_420_888格式,以拿到原始數據。性能

打開攝像頭ui

攝像頭打開後,建立對話google

調用libyuv作RGB之間的數據轉換

  獲取到YUV數據以後,就能夠在UI界面上進行繪製了,經過簡單瞭解,能夠經過OpenGLES來繪製,也能夠轉爲Bitmap直接在TextureView上繪製。這裏爲了簡單,選擇了後者。然然後來發現,android.graphics.Bitmap並不支持直接將YUV數據存入,只能轉爲RGB數據格式,才能存入Bitmap,進而在TextureView上繪製。YUV轉換RGB,以前在C++上應用過不少次了,能夠把現有代碼修改一下放到java裏運行,不過考慮到性能問題,決定仍是使用libyuv。libyuv是一款以c/c++爲基礎的,專作YUV與RGB格式轉換的開源項目,性能很是高。3d

  使用libyuv,須要經過NDK交叉編譯,並經過JNI來調用。libyuv編譯起來也很簡單,首先下載libyuv源碼,代碼地址是:https://chromium.googlesource.com/libyuv/libyuv 。而後確保NDK已經安裝(這個直接在AndroidStudio中就能安裝好),以後把NDK目錄添加到環境變量。最後,進入libyuv目錄,調用ndk-build便可。libyuv項目裏已經寫好了Android.mk,因此,直接編譯就好了(我是在Windows上)。code

注意!編譯的時候遇到JPEG庫沒有指定的問題,若是不想依賴libjpeg,能夠修改Android.mk,刪除JPEG庫相關編譯項就能夠解決。blog

在AndroidStudio上創建c++文件,封裝libyuv接口,而後按照JNI規範暴露接口,同時在Java層封裝類來調用native方法。接口

繪製圖像

在繪製圖像的時候,有個坑,那就是圖像的旋轉,這個是因爲手機上的攝像頭傳感器的視野座標,通常都是旋轉了90度或270度的,因此,須要把攝像頭採集到的畫面,進行旋轉,才能還原出正確的視野畫面。傳感器旋轉方向經過如下值得到,

CameraManager.getCameraCharacteristics(camid).get(CameraCharacteristics.SENSOR_ORIENTATION)

根據這個值,構建Matrix將Bitmap進行旋轉

Matrix構建代碼以下:

與上面代碼中相似,經過TextureView.lockCanvas(),獲取到Canvas,調用drawBitmap()將圖像寫入,便可完成繪製。

運行截圖

開啓預覽時的4:3畫面和16:9畫面

關閉預覽,同時能夠繼續拍照

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

haibindev.cnblogs.com,合做請聯繫QQ。(轉載請註明做者和出處~)

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

相關文章
相關標籤/搜索