一開始OpenCV是基於C語言的,在比較早的教材例如《學習OpenCV》中,講解的存儲圖像的數據結構仍是IplImage
,這樣須要手動管理內存。如今存儲圖像的基本數據結構是Mat
。
Mat是opencv中保存圖像數據的基本容器。其定義以下:數組
class CV_EXPORTS Mat { public: // ... a lot of methods ... ... /*! includes several bit-fields: - the magic signature - continuity flag - depth - number of channels */ int flags; //! the array dimensionality, >= 2 int dims; //! the number of rows and columns or (-1, -1) when the array has more than 2 dimensions int rows, cols; //! pointer to the data uchar* data; //! pointer to the reference counter; // when array points to user-allocated data, the pointer is NULL int* refcount; // other members ... };
Mat類能夠表示n維的單通道或多通道數組,它能夠存儲實數/複數的向量和矩陣,單色或彩色圖像等。向量\(M\)的佈局是由數組\(M.step[]\)決定的,元素\((i_0, ..., i_{M.dims-1})\)的地址爲(其中\(0 \leq i_k < M.size[k]\)):
\[addr(M_{i_0, ..., i_{M.dims-1}})=M.data + M.step[0]*i_0 + M.step[1]*i_1+...+M.step[M.dims-1]*i_{M.dims-1}\]安全
Mat對象的數據佈局和CvMat、Numpy等兼容,實際上它和以step(strides)
方式計算像素地址方式的數據結構兼容。
在上面的數據結構能夠看出,Mat數據結構中指針信息能夠共享,即矩陣頭信息獨立,矩陣數據能夠共享,使用引用計數器,相似智能指針。這樣用戶使用時,用戶能夠分配Mat的頭信息,共享數據信息,並在原地處理信息,這樣能夠極大的節省內存。數據結構
一、使用構造函數Mat(nrows, ncols, type[, fillValue])
或者create(nrows, ncols, type)
這樣能夠建立一個nrows行,ncol列的矩陣,類型爲type。例如CV_8UC1
表示8位單通道, CV_32FC2表示雙通道32位floating-point雙通道。dom
// make a 7x7 complex matrix filled with 1+3j. Mat M(7,7,CV_32FC2,Scalar(1,3)); // and now turn M to a 100x60 15-channel 8-bit matrix. // The old content will be deallocated M.create(100,60,CV_8UC(15));
對於type,格式爲CV_位數+數值類型+C通道數,例如:
CV_8UC1表示:單通道陣列,8bit無符號整數
CV_8US2表示:2通道陣列,8bit有符號整數)
二、建立多維矩陣ide
// create a 100x100x100 8-bit array int sz[] = {100, 100, 100}; Mat bigCube(3, sz, CV_8U, Scalar::all(0));
三、使用拷貝構造函數或賦值操做符時,只是建立了矩陣頭,共享了矩陣信息,時間複雜度爲O(1)。Mat::clone()函數是深拷貝,拷貝了Mat的全部信息。函數
四、只建立信息頭部分,時間複雜度爲O(1),可使用這個特徵Mat局部信息:佈局
// add the 5-th row, multiplied by 3 to the 3rd row M.row(3) = M.row(3) + M.row(5)*3; // now copy the 7-th column to the 1-st column // M.col(1) = M.col(7); // this will not work Mat M1 = M.col(1); M.col(7).copyTo(M1); // create a new 320x240 image Mat img(Size(320,240),CV_8UC3); // select a ROI Mat roi(img, Rect(10,10,100,100)); // fill the ROI with (0,255,0) (which is green in RGB space); // the original 320x240 image will be modified roi = Scalar(0,255,0);
能夠建立ROI(Region of interest)區域學習
Mat A = Mat::eye(10, 10, CV_32S); // extracts A columns, 1 (inclusive) to 3 (exclusive). Mat B = A(Range::all(), Range(1, 3)); // extracts B rows, 5 (inclusive) to 9 (exclusive). // that is, C ~ A(Range(5, 9), Range(1, 3)) Mat C = B(Range(5, 9), Range::all()); Size size; Point ofs; C.locateROI(size, ofs); // size will be (width=10,height=10) and the ofs will be (x=1, y=5)
五、使用用戶開闢的數據建立Mat的header部分ui
六、使用Mat::eye(), Mat::zeros(), Mat::ones()建立矩陣;或使用Mat_
Mat E = Mat::ones(2, 2, CV_32F); Mat O = (Mat_<float>(3, 3) << 1, 2, 3, 4, 5, 6, 7, 8, 9);
Mat支持矩陣運算。A、B表示Mat類型對象,s表示標量,alpha表示實數,支持如下運算:
** 加:A+B, A-B, A+s, s+B,-A
** 縮放:A*alpha
對應像素相乘/除:A.mul(B),A/B, alpha/A。這裏要求A、B大小相等,數據類型通道數一致。
轉置:A.t(),至關於A^T
** 求逆和僞逆矩陣。A.inv([method])寶石求逆,A.inv([method])*B表示求X,其中X知足AX=B
邏輯位操做 A & B, ~A
內積:A.cross(B), A.dot(B),表示對應像素相乘,求和。
一、C++: size_t Mat::total() const
返回像素總數
二、C++: int Mat::depth() const
返回矩陣type類型對應的數值。
三、C++: int Mat::channels() const
返回通道數
四、C++: bool Mat::empty() const
Mat::total() = 0 或 Mat::data = NULL,則方法返回 true
Mat中存儲的圖像像素,具體如何存儲取決於使用的顏色模型和通道數,例如RGB圖像對應的存儲矩陣以下
RGB存儲的子列通道是反過來的:BGR。若是內存足夠大,能夠連續存儲,經過方法Mat::isContinuous()
能夠判斷矩陣是否連續。
訪問圖像的像素,即訪問某位置像素在內存中對應的地址。以提取彩色RGB圖像某一通道圖像爲例:能夠有以下方法:
Mat存儲的圖像,每一行都是連續的,能夠取得每一行開頭指針來訪問圖像像素。例如提取一副圖像中R通道的圖像,G、B通道像素所有置零,能夠獲取每一行開頭的指針,使用指針遍歷每一行的全部像素。若是圖像在內存中的存儲是連續的,還能夠一次遍歷全部像素。
/* original:原圖像 new_image:新圖像 channel:提取的通道 0 1 2分別表示RGB */ void ExtractRGB(Mat& original, Mat& new_image, int channel){ CV_Assert(channel < 3); // accept only char type matrices CV_Assert(original.depth() != sizeof(uchar)); int channels = original.channels(); //只接受3通道圖像 CV_Assert(channels == 3); new_image = original.clone(); int nRows = new_image.rows; int nCols = new_image.cols * channels; if (new_image.isContinuous()) { nCols *= nRows; nRows = 1; } int i, j; uchar* p; for (i = 0; i < nRows; ++i) { p = new_image.ptr<uchar>(i); for (j = 0; j < nCols; ++j) { if (0 == (j + 1 + channel) % 3){ //保留 } else p[j] = 0; } } return ; }
在上面的使用裸指針的方法,不安全,不注意的話會形成內存越界訪問。迭代器是封裝了的指針,相對指針更加安全。
/* original:原圖像 new_image:新圖像 channel:提取的通道 0 1 2分別表示BGR */ void ExtractRGBIterator(Mat& original, Mat& new_image, int channel){ CV_Assert(channel < 3); // accept only char type matrices CV_Assert(original.depth() != sizeof(uchar)); int channels = original.channels(); //只接受3通道圖像 CV_Assert(channels == 3); new_image = original.clone(); int i = (channel + 1) % 3; int j = (channel + 2) % 3; MatIterator_<Vec3b> it, end; //3通道的圖像,迭代器對應三個像素(*it)[0]、(*it)[1]、(*it)[2] for (it = new_image.begin<Vec3b>(), end = new_image.end<Vec3b>(); it != end; ++it) { (*it)[i] = 0; (*it)[j] = 0; } }
若是想隨機獲取某一位置像素,例如(i,j)出的像素,要動態實時計算其偏移,OpenCV提供相關接口
/* original:原圖像 new_image:新圖像 channel:提取的通道 0 1 2分別表示BGR */ void ExtractRGBRandomAcccess(Mat& original, Mat& new_image, int channel){ CV_Assert(channel < 3); // accept only char type matrices CV_Assert(original.depth() != sizeof(uchar)); int channels = original.channels(); //只接受3通道圖像 CV_Assert(channels == 3); new_image = original.clone(); Mat_<Vec3b> _I = new_image; int m = (channel + 1) % 3; int n = (channel + 2) % 3; for (int i = 0; i < new_image.rows; ++i) for (int j = 0; j < new_image.cols; ++j) { _I(i, j)[m] = 0; _I(i, j)[n] = 0; } }
以上3個方法中,第一種最快,第三種最慢;由於第三種是隨機訪問像素使用的,每次都會計算(i,j)像素對應的地址。