您好,登錄后才能下訂單哦!
Android 中在利用Camera2采集攝像頭原始數據,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。
其實主要就是在不預覽的情況下獲取到攝像頭原始數據,目的嘛,一是為了靈活性,方便隨時開啟關閉預覽,二是為了以后可以直接對數據進行處理,三是為了其他程序開發做一些準備。于是實現一下幾個功能:
獲取攝像頭數據,并手動繪制圖像 隨時開啟/關閉預覽 隨時保存當前攝像頭圖像,即使在關閉預覽情況下 Android Camera2接口
查閱了一些資料,Android Java層由于從API21開始,已經廢棄原Camera接口,所以這里采用Camera2接口。相比Camera接口來說,第二代攝像頭接口,調用復雜多了,但是靈活性也更高了,通過Google的Camera2Basic例子可以很清楚的了解到使用方式。這里把CamCap程序中的Camera2的調用順序整理如下:
和其他程序一樣,通過ImageReader來獲取到CameraCaptureSession傳遞出來的數據,與Google例子不同的是,我取消了把TextureView的傳遞,改為單獨以ImageReader來獲取圖像流,并設置為YUV_420_888格式,以拿到原始數據。
打開攝像頭
攝像頭打開后,創建對話
調用libyuv做RGB之間的數據轉換
獲取到YUV數據之后,就可以在UI界面上進行繪制了,通過簡單了解,可以通過OpenGLES來繪制,也可以轉為Bitmap直接在TextureView上繪制。這里為了簡單,選擇了后者。然而后來發現,android.graphics.Bitmap并不支持直接將YUV數據存入,只能轉為RGB數據格式,才能存入Bitmap,進而在TextureView上繪制。YUV轉換RGB,之前在C++上應用過很多次了,可以把現有代碼修改一下放到java里運行,不過考慮到性能問題,決定還是使用libyuv。libyuv是一款以c/c++為基礎的,專做YUV與RGB格式轉換的開源項目,性能非常高。
使用libyuv,需要通過NDK交叉編譯,并通過JNI來調用。libyuv編譯起來也很簡單,首先下載libyuv源碼,代碼地址是:https://chromium.googlesource.com/libyuv/libyuv 。然后確保NDK已經安裝(這個直接在AndroidStudio中就能安裝好),之后把NDK目錄添加到環境變量。最后,進入libyuv目錄,調用ndk-build即可。libyuv項目里已經寫好了Android.mk,所以,直接編譯就行了(我是在Windows上)。
注意!編譯的時候遇到JPEG庫沒有指定的問題,如果不想依賴libjpeg,可以修改Android.mk,刪除JPEG庫相關編譯項就可以解決。
在AndroidStudio上建立c++文件,封裝libyuv接口,然后按照JNI規范暴露接口,同時在Java層封裝類來調用native方法。
繪制圖像
在繪制圖像的時候,有個坑,那就是圖像的旋轉,這個是由于手機上的攝像頭傳感器的視野坐標,一般都是旋轉了90度或270度的,所以,需要把攝像頭采集到的畫面,進行旋轉,才能還原出正確的視野畫面。傳感器旋轉方向通過以下值獲得,
CameraManager.getCameraCharacteristics(camid).get(CameraCharacteristics.SENSOR_ORIENTATION)
根據這個值,構建Matrix將Bitmap進行旋轉
Matrix構建代碼如下:
看完上述內容,你們掌握Android 中在利用Camera2采集攝像頭原始數據的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。