pYUV工具自己使用起來比較簡單,但若是選項設置錯誤,會致使圖像顯示失真或錯誤,讓人誤覺得是圖片自己的問題,這裏介紹兩個比較典型類型的圖片打開方式,其餘類型圖片打開方式舉一反三便可。後端
1. 打開YUV422圖片網絡
將圖片拖入pYUV窗口,彈出選項設置對話框,進行以下設置(黃色高亮處):工具
高亮處的設置分別爲(從上到下、從左到右):分辨率類型、像素格式、像素所佔位數。測試
注意,若是想要查看Y、U、V各個份量是否顯示正常,可選中「Interleaved」,而後打開窗口:編碼
這時顯示的圖像是按照Y、U、V的分佈分層顯示的,若是圖片某處有噪點,能夠在這裏看到是哪一個份量存在噪點。spa
2. 打開RGB48圖片.net
將圖片拖入pYUV窗口,彈出選項設置對話框,進行以下設置(黃色高亮處):視頻
顯示結果爲(示例):blog
其次,接口
YUV: luma (Y) + chroma (UV) 格式, 通常狀況下sensor支持YUV422格式,即數據格式是按Y-U-Y-V次序輸出的
RGB: 傳統的紅綠藍格式,好比RGB565,其16-bit數據格式爲5-bit R + 6-bit G + 5-bit B。G多一位,緣由是人眼對綠色比較敏感。
RAW RGB: sensor的每一像素對應一個彩色濾光片,濾光片按Bayer pattern分佈。將每個像素的數據直接輸出,即RAW RGB data
JPEG: 有些sensor,特別是低分辨率的,其自帶JPEG engine,能夠直接輸出壓縮後的jpg格式的數據
對於這幾種輸出格式,幾個疑問:
一、 有些手機基帶芯片只能支持2M如下的YUV sensor,3M以上只能使用JPEG sensor,這裏說明YUV輸出格式對基帶芯片有必定的要求, 那麼到底YUV sensor對基帶芯片有怎樣的要求呢?
二、 若是直接輸出RGB,對於LCD的顯示是最方便的,那麼爲什麼大多數基帶芯片都是要求輸出爲YUV格式的數據再進行處理呢?
1 YUV一個像素佔2B,若是像素過高在高時鐘下基帶芯片處理不過來,JPEG數據量就要小的多,因此不是YUV對基帶芯片有要求而是基帶芯片對輸出數據速率有要求。
2 RGB565通常用在很低端的基帶芯片上,直接往屏上刷。YUV輸出亮度信號沒有任何損失,而色偏信號人眼並非特別敏感,RGB565輸出格式是R5G3 G3B5會丟掉不少原始信息,因此YUV圖像質量和穩定性要比RGB565好的多
3 RAW數據每一個像素就1B,數據量要少不少,通常5M以上sensor就只輸出RAW數據以保證比較快的輸出速度,後端掛一個DSP來處理輸出的數據。
--------------------------------------------------------------------------------
RAW和JPEG的區別
RAW格式文件基本上是一個沒有經任何圖像處理的源文件, 它能原本來本地記錄相機拍攝到的信 息,沒有由於圖像處理(如銳化、增長色彩對比)和壓縮而形成的信息丟失,但須要用特別的軟件 來打開這些文件。 另外一種經常使用的格式即是JPEG,相機會先根據使用者的設定來作必定的圖像處理,而後通過壓縮 (程度因相機內設定的照片質量而定)和保存照片。 爲什麼要拍攝RAW? RAW是一種專業攝影師經常使用的格式,由於它能原本來本地保存信息,讓用戶能大幅度對照片進行 後期製做,如調整白平衡、曝光程度、顏色對比等設定,也特別適合新手補救拍攝失敗的照片,而 且不管在後期製做上有什麼改動,相片也能無損地回覆到最初狀態,不怕因意外儲存而損失照片。 RAW還有一個好處,例如佳能DPP軟件能夠修正鏡頭失光、變形等。 JPEG格式有什麼優勢? JPEG格式爲一種很是普及的照片格式,差很少全部現代數碼相機都能使用這個格式,絕大部分 的計算機上也能打開JPEG文件,使用者也能夠隨意設定壓縮程度來保留畫質(最佳的JPEG畫質跟RAW 的很是接近),是一種十分方便的格式。 我該拍攝RAW仍是JPEG? 在討論這個問題以前,讓咱們看看RAW格式有什麼缺點: 1.由於RAW文件須要保留全部細節和信息,因此文件比JPEG大不少,這樣儲存照片或把照片傳輸 到計算機的時間便更長更久,須要的儲存容量也更大; 2.RAW文件須要使用特別的軟件來打開,一旦計算機沒有安裝軟件便無法打開文件; 3.承上,一旦10年後那套特定的軟件無法安裝,以前拍攝的照片便沒有辦法打開; 4.軟件打開RAW的時間比較長,快的須要八、9s,慢的可能要用上20s也說不定; 5.不一樣的軟件有不一樣的方式去「演譯」RAW文件,因此一個RAW文件在Photoshop 和Nikon Capture NX看可能會有所差異; 6.廠商賣的專用軟件價錢不低。(佳能DPP能夠免費下載,尼康NX則需另購) 清楚RAW的缺點之後,咱們即可以看看哪一種狀況應該選擇RAW或JPEG: 若是你須要拍攝大量的照片,應該考慮使用JPEG,由於其容量需求比較少和能夠保留後制及把 照片轉換爲JPEG的時間; 若是你用做商業拍攝或喜歡後期製做,應該使用RAW,由於後製空間較大; 若是你正進行旅行攝影,能夠考慮使用RAW或者RAW+JPEG,由於旅行的地方可能無法常去,使用 RAW讓你一旦拍攝失敗也有較大的機會補救。 後記 其實如今Photoshop的功能很強大,對於JPEG文件也能經過level或curve來調較曝光、白平衡、 色彩對比等,固然若是須要作大幅度的調整仍是RAW文件比較適合的。
攝像頭數據格式
攝像頭的數據輸出格式通常分爲CCIR60一、CCIR65六、RAW RGB等格式,此處說的RGB格式應該就是CCIR601或CCIR656格式。而RAW RGB格式與通常的RGB格式是有區別的。
咱們知道,Sensor的感光原理是經過一個一個的感光點對光進行採樣和量化,但,在Sensor中,每個感光點只能感光RGB中的一種顏色。因此,一般所說的30萬像素或130萬像素等,指的是有30萬或130萬個感光點。每個感光點只能感光一種顏色。
可是,要還原一個真正圖像,須要每個點都有RGB三種顏色,因此,對於CCIR601或656的格式,在Sensor模組的內部會有一個ISP模塊,會將Sensor採集到的數據進行插值和特效處理,例如:若是一個感光點感應的顏色是R,那麼,ISP模塊就會根據這個感光點周圍的G、B感光點的數值來計算出此點的G、B值,那麼,這一點的RGB值就被還原了,而後在編碼成601或656的格式傳送給Host。
而RAW RGB格式的Sensor則是將沒個感光點感應到的RGB數值直接傳送給Host,由Host來進行插值和特效處理。
Raw RGB 每一個像素只有一種顏色(R、G、B中的一種);
RGB 每一個像素都有三種顏色,每個的值在0~255之間;
在手機攝像頭的測試過程當中,由sensor輸出的數據就是Raw data(Raw RGB),通過彩色插值就變成RGB
sensor輸出的數據格式,主要分兩種:YUV(比較流行),RGB,這就是sonsor的數據輸出;這其中的GRB就是Raw RGB,是sensor的bayer陣列獲取的數據(每種傳感器得到對應的顏色亮度);
可是輸出的數據不等於就是圖像的實際數據,模組測試時,就要寫一個軟件,完成數據採集(得到Raw data)->彩色插值(目的是得到RGB格式,便於圖像顯示)->圖像顯示;
這樣就能夠發現整個模組是否正常,有無壞點,髒點的等,檢測出不良品;(軟件的處理過程中,爲了得到更好的圖像質量,還須要白平衡,gamma校訂,彩色校訂)
而在手機的應用中,手機根據相機模組的數據格式,提供一個ISP(主要用於RGB格式的),配合軟件,使照相功能獲得應用;
對於SENSOR來講,Bayer RGB和RGB Raw二者的圖象結構都是BG/GR的(Bayer pattern說的是COLOR FILTER的結構,分爲兩種:STD Bayer pattern 與Pair pattern,其中STD Bayer pattern的結構是BG/GR的,而Pair Pattern顧名思義是指BGBG/GRGR的結構,即以四行爲一個單位,前兩行是BG的結構,後兩行是GR的結構,這種結構是美光專門爲此申請了專利的,主要是在輸出TV模式(NTSC/PAL制)時用到),因爲後端應用時,對RAW DATA圖像的 解碼是按默認的結構來 解碼的 ,如BG/GR,所以 Bayer RGB和RGB Raw二者的圖象結構必須都是BG/GR的,而若是輸出圖像結構是BGBG/GRGR,則不能夠直接顯示和解碼 的。Bayer RGB與RGB Raw的主要區別在於二者輸出前通過的處理不一樣,Bayer RGB從ADC輸出,只通過了LENS SHADING CORRECTION,GAMMA等模塊處理然後就直接輸出,而RGB Raw則通過了整個ISP模塊的處理,最終是通過YUV422的數據轉化而來的數字視頻CCIR 601編碼標準1、採樣頻率:爲了保證信號的同步,採樣頻率必須是電視信號行頻的倍數。CCIR爲NTSC、PAL和SECAM制式制定的共同的電視圖像採樣標準:fs=13.5MHz這個採樣頻率正好是PAL、SECAM制行頻的864倍,NTSC制行頻的858倍,能夠保證採樣時採樣時鐘與行同步信號同步。對於4:2:2的採樣格式,亮度信號用fs頻率採樣,兩個色差信號分別用fs/2=6.75MHz的頻率採樣。由此可推出色度份量的最小採樣率是3.375MHz。2、分辨率:根據採樣頻率,可算出對於PAL和SECAM制式,每一掃描行採樣864個樣本點;對於NTSC制則是858個樣本點。因爲電視信號中每一行都包括必定的同步信號和回掃信號,故有效的圖像信號樣本點並無那麼多,CCIR 601規定對全部的制式,其每一行的有效樣本點數爲720點。因爲不一樣的制式其每幀的有效行數不一樣(PAL和SECAM製爲576行,NTSC製爲484行),CCIR定義720×484爲高清晰度電視HDTV(High Definition TV)的基本標準。實際計算機顯示數字視頻時,一般採用下表的參數:電視制式 分辨率 幀 率NTSC 640×480 30PAL 768×576 253、數據量:CCIR 601規定,每一個樣本點都按8位數字化,也即有256個等級。但實際上亮度信號佔220級,色度信號佔225級,其它位做同步、編碼等控制用。若是按fs的採樣率、4:2:2的格式採樣,則數字視頻的數據量爲:13.5(MHz)×8(bit)+2×6.75(MHz)×8(bit) = 27Mbyte / s一樣能夠算出,若是按4:4:4的方式採樣,數字視頻的數據量爲每秒40兆字節!按每秒27兆字節的數據率計算,一段10秒鐘的數字視頻要佔用270兆字節的存儲空間。按此數據率,一張680兆字節容量的光盤只能記錄約25秒的數字視頻數據信息,並且即便目前高倍速的光驅,其數據傳輸率也遠遠達不到每秒27兆字節的傳輸要求,視頻數據將沒法實時回放。這種未壓縮的數字視頻數據量對於目前的計算機和網絡來講不管是存儲或傳輸都是不現實的,所以,在多媒體中應用數字視頻的關鍵問題是數字視頻的壓縮技術。 CCIR601和CCIR656標準的區別關於這兩種信號的區別:ITU-R BT 601:16位數據傳輸;21芯;Y、U、V信號同時傳輸。ITU-R BT 656:9芯,不須要同步信號;8位數據傳輸;串行視頻傳輸;傳輸速率是601的2倍;先傳Y,後傳UV。CCIR601要經過行、場同步兩根信號線來傳遞行、場同步信息;CCIR656不須要這兩根信號線,它只經過8位數據線實現「軟」同步。CCIR656=CCIR601+HSYNC+VSYNC656輸出的是串行數據,行場同步信號嵌入在數據流中;601是傳輸的是並行數據,行場同步有單獨輸出;656只是數據傳輸接口而已,能夠說是做爲601的一個傳輸方式。簡單的說ITU-R BT.601是「演播室數字電視編碼參數」 標準,而ITU-R BT.656則是ITU-R BT.601附件A中的數字接口標準,用於主要數字視頻設備(包括芯片)之間採用27Mhz/s並口或243Mb/s串行接口的數字傳輸接口標準。CCIR601號建議的制定,是向着數字電視廣播系統參數統一化、標準化邁出的第一步。在該建議中,規定了625和525行系統電視中心演播室數字編碼的基本參數值。601號建議單獨規定了電視演播室的編碼標準。它對彩色電視信號的編碼方式、取樣頻率、取樣結構都做了明確的規定。它規定彩色電視信號採用份量編碼。所謂份量編碼就是彩色全電視信號在轉換成數字形式以前,先被分離成亮度信號和色差信號,而後對它們分別進行編碼。份量信號(Y、B -- Y、R -- Y)被分別編碼後,再合成數字信號。 它規定了取樣頻率與取樣結構。例如:在4:2:2等級的編碼中,規定亮度信號和色差信號的取樣頻率分別爲13.5MHZ和6.75MHZ,取樣結構爲正交結構,即按行、場、幀重複,每行中的R-Y和B-Y取樣與奇次(1,3,5……)Y的取樣同位置,即取樣結構是固定的,取樣點在電視屏幕上的相對位置不變。 它規定了編碼方式。對亮度信號和兩個色差信號進行線性PCM編碼,每一個取樣點取8比特量化。同時,規定在數字編碼時,不使用A/D轉換的整個動態範圍,只給亮度信號分配220個量化級,黑電平對應於量化級16,白電平對應於量化級235。爲每一個色差信號分配224個量化級,色差信號的零電平對應於量化級128。綜上所述,咱們知道,份量信號的編碼數據流是很高的。以4:2:2編碼標準爲例,其比特流爲:13.5×8+6.75×8×2=216Mb/S。若採用4:4:4編碼方式,即對複合信號直接編碼,其抽樣頻率取爲13.3×8=106.4 Mb/S。PS:咱們能夠認爲CCIR601即「ITU-R BT.601-5」,「ITU-R BT.656-4"即CCIR601。656只有8位DATA+CLK,601有8位DATA+CLK+HSYNC+VSYNC,還有16位DATA+CLK+HSYNC+VSYNC。656把HSYNC、VSYNC插到數據中,601的數據線只有數據