一、模板匹配html
模板匹配是在圖像中尋找目標的方法之一。Come On, Boy.咱們一塊兒來看看模板匹配究竟是怎麼回事。數組
http://www.cnblogs.com/xrwang/archive/2010/02/05/MatchTemplate.html學習
模板匹配的工做方式測試
模板匹配的工做方式跟直方圖的反向投影基本同樣,大體過程是這樣的:經過在輸入圖像上滑動圖像塊對實際的圖像塊和輸入圖像進行匹配。
假設咱們有一張100x100的輸入圖像,有一張10x10的模板圖像,查找的過程是這樣的:
(1)從輸入圖像的左上角(0,0)開始,切割一塊(0,0)至(10,10)的臨時圖像;
(2)用臨時圖像和模板圖像進行對比,對比結果記爲c;
(3)對比結果c,就是結果圖像(0,0)處的像素值;
(4)切割輸入圖像從(0,1)至(10,11)的臨時圖像,對比,並記錄到結果圖像;
(5)重複(1)~(4)步直到輸入圖像的右下角。
你們能夠看到,直方圖反向投影對比的是直方圖,而模板匹配對比的是圖像的像素值;模板匹配比直方圖反向投影速度要快一些,可是我我的認爲直方圖反向投影的魯棒性會更好。優化
模板匹配的匹配方式ui
在OpenCv和EmguCv中支持如下6種對比方式:
CV_TM_SQDIFF 平方差匹配法:該方法採用平方差來進行匹配;最好的匹配值爲0;匹配越差,匹配值越大。
CV_TM_CCORR 相關匹配法:該方法採用乘法操做;數值越大代表匹配程度越好。
CV_TM_CCOEFF 相關係數匹配法:1表示完美的匹配;-1表示最差的匹配。
CV_TM_SQDIFF_NORMED 歸一化平方差匹配法
CV_TM_CCORR_NORMED 歸一化相關匹配法
CV_TM_CCOEFF_NORMED 歸一化相關係數匹配法
根據個人測試結果來看,上述幾種匹配方式須要的計算時間比較接近(跟《學習OpenCv》書上說的不一樣),咱們能夠選擇一個能適應場景的匹配方式。spa
顯示結果圖像
模板匹配和直方圖反向投影生成的結果圖像都是32位浮點型單通道圖像.net
模板匹配和直方圖反向投影的效率3d
總的來講,模板匹配和直方圖反向投影的效率都不高。在個人機器上,在1136*852大小的輸入圖像上匹配104*132的大小的模板圖像(都是單通道灰度圖像),大約須要700毫秒;而直方圖反向投影大約須要75000毫秒(1.25分鐘)。看來還須要繼續學習,尋找更好的處理方法。
另外一方面,經過搜索OpenCv的源代碼,發現OpenCv基本上沒有使用並行計算。若是學習完以後,還有時間和熱情,我準備嘗試優化下OpenCv的並行計算;若是.net 4.0正式版推出了,也能夠選擇在這一方面作點優化。
代碼:
// 用於存儲匹配結果的矩陣 cv::Mat result; int result_cols = minM.cols - tempMat.cols + 1; int result_rows = minM.rows - tempMat.rows + 1; result.create( result_cols, result_rows, CV_32FC1 ); // 進行模板匹配 int match_method = CV_TM_SQDIFF; cv::matchTemplate( MatSrc, tempMat, result, match_method ); // 歸一化結果(方便顯示結果) //cv::normalize( result, result, 0, 1, NORM_MINMAX, -1, Mat() ); // 找到最佳匹配位置 double minVal =0; double maxVal =0; cv::Point minLoc(0,0); cv::Point maxLoc(0,0); cv::Point matchLoc(0,0); cv::Point matchCenter(0,0); cv::Point matchSrc(0,0); cv::minMaxLoc( result, &minVal, &maxVal, &minLoc, &maxLoc, Mat() ); // 尋找result中的最大和最小值,以及它們所處的像素位置 // 使用SQDIFF和SQDIFF_NORMED方法時:值越小表明越類似 // 使用其餘方法時:值越大表明越類似 if( match_method == CV_TM_SQDIFF || match_method == CV_TM_SQDIFF_NORMED ) { matchLoc = minLoc; } else { matchLoc = maxLoc; }
二、Filter2d
OpenCv Filter2d進行二維卷積進行的是相關運算;
參考連接:http://blog.csdn.net/superdont/article/details/6662365
高通和低通濾波
#include "cv.h" #include "highgui.h" int main(int argc,char**argv) { IplImage* src, *dst, src_f; float low[9] ={ 1.0/16, 2.0/16, 1.0/16, 2.0/16, 4.0/16, 2.0/16, 1.0/16, 2.0/16, 1.0/16 };//低通濾波核 float high[9]={-1,-1,-1,-1,9,-1,-1,-1,-1};//高通濾波核 CvMat km = cvMat( 3, 3, CV_32FC1, low); //構造單通道浮點矩陣,將圖像IplImage結構轉換爲圖像數組 src = cvLoadImage( "lena.jpg" ); st = cvCreateImage( cvGetSize(src), IPL_DEPTH_8U, 3 ); cvFilter2D( src, dst, &km, cvPoint( -1, -1 ) ); //設參考點爲核的中心 cvNamedWindow( "src", 0 ); cvNamedWindow( "filtering", 0 ); cvShowImage( "src", src ); cvShowImage( "filtering", dst ); cvWaitKey(0); cvReleaseImage( &src ); cvReleaseImage( &dst ); return 0; }
三、經過傅里葉變換求圖像卷積
參考連接:http://blog.csdn.net/lichengyu/article/details/18848281
各類濾波(平滑、銳化)的狀況,基本方法都是將圖像與一個核進行卷積實現。而卷積定理指出,兩個函數的卷積的傅里葉變換等於各自的傅里葉變換的乘積,即:
[1]
那麼,兩個函數的卷積能夠經過以下方式獲得,對兩個函數傅里葉變換的乘積作傅里葉反變換,即:
[1]
在進行卷積運算時,通常是將核沿着圖像從左到右從上到下計算每個像素處與核卷積後的值,這樣的計算量較大,採用傅里葉變換的方法能夠提升運算效率。
............................................代碼見原文章.....
須要注意的是,通常求法中,利用核遊走整個圖像進行卷積運算,實際上進行的是相關運算,真正意義上的卷積,應該首先把核翻轉180度,再在整個圖像上進行遊走。OpenCV中的filter2D實際上作的也只是相關,而非卷積。"The function does actually compute correlation, not the convolution: ... That is, the kernel is not mirrored around the anchor point. If you need a real convolution, flip the kernel using flip() and set the new anchor to (kernel.cols - anchor.x - 1, kernel.rows - anchor.y - 1)