在這一節中,主要講目標跟蹤的一個重要的算法Camshift,由於它是連續自使用的meanShift,因此這2個函數opencv中都有,且都很重要。爲了讓你們先達到一個感性認識。這節主要是看懂和運行opencv中給的sample並稍加修改。ios
Camshift函數的原型爲:RotatedRect CamShift(InputArray probImage, Rect& window, TermCriteria criteria)。算法
其中probImage爲輸入圖像直方圖的反向投影圖,window爲要跟蹤目標的初始位置矩形框,criteria爲算法結束條件。函數返回一個有方向角度的矩陣。該函數的實現首先是利用meanshift算法計算出要跟蹤的中心,而後調整初始窗口的大小位置和方向角度。在camshift內部調用了meanshift算法計算目標的重心。數組
下面是一個opencv自帶的CamShift算法使用工程實例。該實例的做用是跟蹤攝像頭中目標物體,目標物體初始位置用鼠標指出,其跟蹤窗口大小和方向隨着目標物體的變化而變化。其代碼及註釋大概以下:ide
#include "StdAfx.h"函數
#include "opencv2/video/tracking.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/highgui/highgui.hpp"ui
#include <iostream>
#include <ctype.h>spa
using namespace cv;
using namespace std;指針
Mat image;rest
bool backprojMode = false; //表示是否要進入反向投影模式,ture表示準備進入反向投影模式
bool selectObject = false;//表明是否在選要跟蹤的初始目標,true表示正在用鼠標選擇
int trackObject = 0; //表明跟蹤目標數目
bool showHist = true;//是否顯示直方圖
Point origin;//用於保存鼠標選擇第一次單擊時點的位置
Rect selection;//用於保存鼠標選擇的矩形框
int vmin = 10, vmax = 256, smin = 30;orm
void onMouse( int event, int x, int y, int, void* )
{
if( selectObject )//只有當鼠標左鍵按下去時纔有效,而後經過if裏面代碼就能夠肯定所選擇的矩形區域selection了
{
selection.x = MIN(x, origin.x);//矩形左上角頂點座標
selection.y = MIN(y, origin.y);
selection.width = std::abs(x - origin.x);//矩形寬
selection.height = std::abs(y - origin.y);//矩形高
selection &= Rect(0, 0, image.cols, image.rows);//用於確保所選的矩形區域在圖片範圍內
}
switch( event )
{
case CV_EVENT_LBUTTONDOWN:
origin = Point(x,y);
selection = Rect(x,y,0,0);//鼠標剛按下去時初始化了一個矩形區域
selectObject = true;
break;
case CV_EVENT_LBUTTONUP:
selectObject = false;
if( selection.width > 0 && selection.height > 0 )
trackObject = -1;
break;
}
}
void help()
{
cout << "\nThis is a demo that shows mean-shift based tracking\n"
"You select a color objects such as your face and it tracks it.\n"
"This reads from video camera (0 by default, or the camera number the user enters\n"
"Usage: \n"
" ./camshiftdemo [camera number]\n";
cout << "\n\nHot keys: \n"
"\tESC - quit the program\n"
"\tc - stop the tracking\n"
"\tb - switch to/from backprojection view\n"
"\th - show/hide object histogram\n"
"\tp - pause video\n"
"To initialize tracking, select the object with mouse\n";
}
const char* keys =
{
"{1| | 0 | camera number}"
};
int main( int argc, const char** argv )
{
help();
VideoCapture cap; //定義一個攝像頭捕捉的類對象
Rect trackWindow;
RotatedRect trackBox;//定義一個旋轉的矩陣類對象
int hsize = 16;
float hranges[] = {0,180};//hranges在後面的計算直方圖函數中要用到
const float* phranges = hranges;
CommandLineParser parser(argc, argv, keys);//命令解析器函數
int camNum = parser.get<int>("1");
cap.open(camNum);//直接調用成員函數打開攝像頭
if( !cap.isOpened() )
{
help();
cout << "***Could not initialize capturing...***\n";
cout << "Current parameter's value: \n";
parser.printParams();
return -1;
}
namedWindow( "Histogram", 0 );
namedWindow( "CamShift Demo", 0 );
setMouseCallback( "CamShift Demo", onMouse, 0 );//消息響應機制
createTrackbar( "Vmin", "CamShift Demo", &vmin, 256, 0 );//createTrackbar函數的功能是在對應的窗口建立滑動條,滑動條Vmin,vmin表示滑動條的值,最大爲256
createTrackbar( "Vmax", "CamShift Demo", &vmax, 256, 0 );//最後一個參數爲0表明沒有調用滑動拖動的響應函數
createTrackbar( "Smin", "CamShift Demo", &smin, 256, 0 );//vmin,vmax,smin初始值分別爲10,256,30
Mat frame, hsv, hue, mask, hist, histimg = Mat::zeros(200, 320, CV_8UC3), backproj;
bool paused = false;
for(;;)
{
if( !paused )//沒有暫停
{
cap >> frame;//從攝像頭抓取一幀圖像並輸出到frame中
if( frame.empty() )
break;
}
frame.copyTo(image);
if( !paused )//沒有按暫停鍵
{
cvtColor(image, hsv, CV_BGR2HSV);//將rgb攝像頭幀轉化成hsv空間的
if( trackObject )//trackObject初始化爲0,或者按完鍵盤的'c'鍵後也爲0,當鼠標單擊鬆開後爲-1
{
int _vmin = vmin, _vmax = vmax;
//inRange函數的功能是檢查輸入數組每一個元素大小是否在2個給定數值之間,能夠有多通道,mask保存0通道的最小值,也就是h份量
//這裏利用了hsv的3個通道,比較h,0~180,s,smin~256,v,min(vmin,vmax),max(vmin,vmax)。若是3個通道都在對應的範圍內,則
//mask對應的那個點的值全爲1(0xff),不然爲0(0x00).
inRange(hsv, Scalar(0, smin, MIN(_vmin,_vmax)),
Scalar(180, 256, MAX(_vmin, _vmax)), mask);
int ch[] = {0, 0};
hue.create(hsv.size(), hsv.depth());//hue初始化爲與hsv大小深度同樣的矩陣,色調的度量是用角度表示的,紅綠藍之間相差120度,反色相差180度
mixChannels(&hsv, 1, &hue, 1, ch, 1);//將hsv第一個通道(也就是色調)的數複製到hue中,0索引數組
if( trackObject < 0 )//鼠標選擇區域鬆開後,該函數內部又將其賦值1
{
//此處的構造函數roi用的是Mat hue的矩陣頭,且roi的數據指針指向hue,即共用相同的數據,select爲其感興趣的區域
Mat roi(hue, selection), maskroi(mask, selection);//mask保存的hsv的最小值
//calcHist()函數第一個參數爲輸入矩陣序列,第2個參數表示輸入的矩陣數目,第3個參數表示將被計算直方圖維數通道的列表,第4個參數表示可選的掩碼函數
//第5個參數表示輸出直方圖,第6個參數表示直方圖的維數,第7個參數爲每一維直方圖數組的大小,第8個參數爲每一維直方圖bin的邊界
calcHist(&roi, 1, 0, maskroi, hist, 1, &hsize, &phranges);//將roi的0通道計算直方圖並經過mask放入hist中,hsize爲每一維直方圖的大小
normalize(hist, hist, 0, 255, CV_MINMAX);//將hist矩陣進行數組範圍歸一化,都歸一化到0~255
trackWindow = selection;
trackObject = 1;//只要鼠標選完區域鬆開後,且沒有按鍵盤清0鍵'c',則trackObject一直保持爲1,所以該if函數只能執行一次,除非從新選擇跟蹤區域
histimg = Scalar::all(0);//與按下'c'鍵是同樣的,這裏的all(0)表示的是標量所有清0
int binW = histimg.cols / hsize; //histing是一個200*300的矩陣,hsize應該是每個bin的寬度,也就是histing矩陣能分出幾個bin出來
Mat buf(1, hsize, CV_8UC3);//定義一個緩衝單bin矩陣
for( int i = 0; i < hsize; i++ )//saturate_case函數爲從一個初始類型準確變換到另外一個初始類型
buf.at<Vec3b>(i) = Vec3b(saturate_cast<uchar>(i*180./hsize), 255, 255);//Vec3b爲3個char值的向量
cvtColor(buf, buf, CV_HSV2BGR);//將hsv又轉換成bgr
for( int i = 0; i < hsize; i++ )
{
int val = saturate_cast<int>(hist.at<float>(i)*histimg.rows/255);//at函數爲返回一個指定數組元素的參考值
rectangle( histimg, Point(i*binW,histimg.rows), //在一幅輸入圖像上畫一個簡單抽的矩形,指定左上角和右下角,並定義顏色,大小,線型等
Point((i+1)*binW,histimg.rows - val),
Scalar(buf.at<Vec3b>(i)), -1, 8 );
}
}
calcBackProject(&hue, 1, 0, hist, backproj, &phranges);//計算直方圖的反向投影,計算hue圖像0通道直方圖hist的反向投影,並讓入backproj中
backproj &= mask;
//opencv2.0之後的版本函數命名前沒有cv兩字了,而且若是函數名是由2個意思的單詞片斷組成的話,且前面那個片斷不夠成單詞,則第一個字母要
//大寫,好比Camshift,若是第一個字母是個單詞,則小寫,好比meanShift,可是第二個字母必定要大寫
RotatedRect trackBox = CamShift(backproj, trackWindow, //trackWindow爲鼠標選擇的區域,TermCriteria爲肯定迭代終止的準則
TermCriteria( CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1 ));//CV_TERMCRIT_EPS是經過forest_accuracy,CV_TERMCRIT_ITER
if( trackWindow.area() <= 1 ) //是經過max_num_of_trees_in_the_forest
{
int cols = backproj.cols, rows = backproj.rows, r = (MIN(cols, rows) + 5)/6;
trackWindow = Rect(trackWindow.x - r, trackWindow.y - r,
trackWindow.x + r, trackWindow.y + r) &
Rect(0, 0, cols, rows);//Rect函數爲矩陣的偏移和大小,即第一二個參數爲矩陣的左上角點座標,第三四個參數爲矩陣的寬和高
}
if( backprojMode )
cvtColor( backproj, image, CV_GRAY2BGR );//所以投影模式下顯示的也是rgb圖?
ellipse( image, trackBox, Scalar(0,0,255), 3, CV_AA );//跟蹤的時候以橢圓爲表明目標
}
}
//後面的代碼是無論pause爲真仍是爲假都要執行的
else if( trackObject < 0 )//同時也是在按了暫停字母之後
paused = false;
if( selectObject && selection.width > 0 && selection.height > 0 )
{
Mat roi(image, selection);
bitwise_not(roi, roi);//bitwise_not爲將每個bit位取反
}
imshow( "CamShift Demo", image );
imshow( "Histogram", histimg );
char c = (char)waitKey(10);
if( c == 27 ) //退出鍵
break;
switch(c)
{
case 'b': //反向投影模型交替
backprojMode = !backprojMode;
break;
case 'c': //清零跟蹤目標對象
trackObject = 0;
histimg = Scalar::all(0);
break;
case 'h': //顯示直方圖交替
showHist = !showHist;
if( !showHist )
destroyWindow( "Histogram" );
else
namedWindow( "Histogram", 1 );
break;
case 'p': //暫停跟蹤交替
paused = !paused;
break;
default:
;
}
}
return 0;
}
運行截圖以下(因爲攝像頭中通常會拍到人,影響很差,因此含目標物體的截圖就不貼上來了):
另外,因爲Camshift主要是利用到了meanShift算法,在目標跟蹤領域應用比較普遍,而meanShift也能夠用於目標跟蹤,只是自適用性沒CamShift好,但也能夠用。首先看看meanShift算法的聲明:
int meanShift(InputArray probImage, Rect& window, TermCriteria criteria)
與CamShift函數不一樣的一點是,它返回的不是一個矩形框,而是一個int型變量。該int型變量應該是表明找到目標物體的個數。特別須要注意的是參數window,它不只是目標物體初始化的位置,仍是實時跟蹤目標後的位置,因此其實也是一個返回值。因爲meanShift好像主要不是用於目標跟蹤上,不少應用是在圖像分割上。可是這裏仍是將CamShift算法例子稍微改一下,就成了meanShift算法了。主要是用window代替CamShift中的trackWindow.
其代碼註釋以下:
#include "StdAfx.h"
#include "opencv2/video/tracking.hpp"
#include "opencv2/imgproc/imgproc.hpp"
#include "opencv2/highgui/highgui.hpp"
#include <iostream>
#include <ctype.h>
using namespace cv;
using namespace std;
Mat image;
bool backprojMode = false; //表示是否要進入反向投影模式,ture表示準備進入反向投影模式
bool selectObject = false;//表明是否在選要跟蹤的初始目標,true表示正在用鼠標選擇
int trackObject = 0; //表明跟蹤目標數目
bool showHist = true;//是否顯示直方圖
Point origin;//用於保存鼠標選擇第一次單擊時點的位置
Rect selection;//用於保存鼠標選擇的矩形框
int vmin = 10, vmax = 256, smin = 30;
void onMouse( int event, int x, int y, int, void* )
{
if( selectObject )//只有當鼠標左鍵按下去時纔有效,而後經過if裏面代碼就能夠肯定所選擇的矩形區域selection了
{
selection.x = MIN(x, origin.x);//矩形左上角頂點座標
selection.y = MIN(y, origin.y);
selection.width = std::abs(x - origin.x);//矩形寬
selection.height = std::abs(y - origin.y);//矩形高
selection &= Rect(0, 0, image.cols, image.rows);//用於確保所選的矩形區域在圖片範圍內
}
switch( event )
{
case CV_EVENT_LBUTTONDOWN:
origin = Point(x,y);
selection = Rect(x,y,0,0);//鼠標剛按下去時初始化了一個矩形區域
selectObject = true;
break;
case CV_EVENT_LBUTTONUP:
selectObject = false;
if( selection.width > 0 && selection.height > 0 )
trackObject = -1;
break;
}
}
void help()
{
cout << "\nThis is a demo that shows mean-shift based tracking\n"
"You select a color objects such as your face and it tracks it.\n"
"This reads from video camera (0 by default, or the camera number the user enters\n"
"Usage: \n"
" ./camshiftdemo [camera number]\n";
cout << "\n\nHot keys: \n"
"\tESC - quit the program\n"
"\tc - stop the tracking\n"
"\tb - switch to/from backprojection view\n"
"\th - show/hide object histogram\n"
"\tp - pause video\n"
"To initialize tracking, select the object with mouse\n";
}
const char* keys =
{
"{1| | 0 | camera number}"
};
int main( int argc, const char** argv )
{
help();
VideoCapture cap; //定義一個攝像頭捕捉的類對象
Rect trackWindow;
RotatedRect trackBox;//定義一個旋轉的矩陣類對象
int hsize = 16;
float hranges[] = {0,180};//hranges在後面的計算直方圖函數中要用到
const float* phranges = hranges;
CommandLineParser parser(argc, argv, keys);//命令解析器函數
int camNum = parser.get<int>("1");
cap.open(camNum);//直接調用成員函數打開攝像頭
if( !cap.isOpened() )
{
help();
cout << "***Could not initialize capturing...***\n";
cout << "Current parameter's value: \n";
parser.printParams();
return -1;
}
namedWindow( "Histogram", 0 );
namedWindow( "CamShift Demo", 0 );
setMouseCallback( "CamShift Demo", onMouse, 0 );//消息響應機制
createTrackbar( "Vmin", "CamShift Demo", &vmin, 256, 0 );//createTrackbar函數的功能是在對應的窗口建立滑動條,滑動條Vmin,vmin表示滑動條的值,最大爲256
createTrackbar( "Vmax", "CamShift Demo", &vmax, 256, 0 );//最後一個參數爲0表明沒有調用滑動拖動的響應函數
createTrackbar( "Smin", "CamShift Demo", &smin, 256, 0 );//vmin,vmax,smin初始值分別爲10,256,30
Mat frame, hsv, hue, mask, hist, histimg = Mat::zeros(200, 320, CV_8UC3), backproj;
bool paused = false;
for(;;)
{
if( !paused )//沒有暫停
{
cap >> frame;//從攝像頭抓取一幀圖像並輸出到frame中
if( frame.empty() )
break;
}
frame.copyTo(image);
if( !paused )//沒有按暫停鍵
{
cvtColor(image, hsv, CV_BGR2HSV);//將rgb攝像頭幀轉化成hsv空間的
if( trackObject )//trackObject初始化爲0,或者按完鍵盤的'c'鍵後也爲0,當鼠標單擊鬆開後爲-1
{
int _vmin = vmin, _vmax = vmax;
//inRange函數的功能是檢查輸入數組每一個元素大小是否在2個給定數值之間,能夠有多通道,mask保存0通道的最小值,也就是h份量
//這裏利用了hsv的3個通道,比較h,0~180,s,smin~256,v,min(vmin,vmax),max(vmin,vmax)。若是3個通道都在對應的範圍內,則
//mask對應的那個點的值全爲1(0xff),不然爲0(0x00).
inRange(hsv, Scalar(0, smin, MIN(_vmin,_vmax)),
Scalar(180, 256, MAX(_vmin, _vmax)), mask);
int ch[] = {0, 0};
hue.create(hsv.size(), hsv.depth());//hue初始化爲與hsv大小深度同樣的矩陣,色調的度量是用角度表示的,紅綠藍之間相差120度,反色相差180度
mixChannels(&hsv, 1, &hue, 1, ch, 1);//將hsv第一個通道(也就是色調)的數複製到hue中,0索引數組
if( trackObject < 0 )//鼠標選擇區域鬆開後,該函數內部又將其賦值1
{
//此處的構造函數roi用的是Mat hue的矩陣頭,且roi的數據指針指向hue,即共用相同的數據,select爲其感興趣的區域
Mat roi(hue, selection), maskroi(mask, selection);//mask保存的hsv的最小值
//calcHist()函數第一個參數爲輸入矩陣序列,第2個參數表示輸入的矩陣數目,第3個參數表示將被計算直方圖維數通道的列表,第4個參數表示可選的掩碼函數
//第5個參數表示輸出直方圖,第6個參數表示直方圖的維數,第7個參數爲每一維直方圖數組的大小,第8個參數爲每一維直方圖bin的邊界
calcHist(&roi, 1, 0, maskroi, hist, 1, &hsize, &phranges);//將roi的0通道計算直方圖並經過mask放入hist中,hsize爲每一維直方圖的大小
normalize(hist, hist, 0, 255, CV_MINMAX);//將hist矩陣進行數組範圍歸一化,都歸一化到0~255
trackWindow = selection;
trackObject = 1;//只要鼠標選完區域鬆開後,且沒有按鍵盤清0鍵'c',則trackObject一直保持爲1,所以該if函數只能執行一次,除非從新選擇跟蹤區域
histimg = Scalar::all(0);//與按下'c'鍵是同樣的,這裏的all(0)表示的是標量所有清0
int binW = histimg.cols / hsize; //histing是一個200*300的矩陣,hsize應該是每個bin的寬度,也就是histing矩陣能分出幾個bin出來
Mat buf(1, hsize, CV_8UC3);//定義一個緩衝單bin矩陣
for( int i = 0; i < hsize; i++ )//saturate_case函數爲從一個初始類型準確變換到另外一個初始類型
buf.at<Vec3b>(i) = Vec3b(saturate_cast<uchar>(i*180./hsize), 255, 255);//Vec3b爲3個char值的向量
cvtColor(buf, buf, CV_HSV2BGR);//將hsv又轉換成bgr
for( int i = 0; i < hsize; i++ )
{
int val = saturate_cast<int>(hist.at<float>(i)*histimg.rows/255);//at函數爲返回一個指定數組元素的參考值
rectangle( histimg, Point(i*binW,histimg.rows), //在一幅輸入圖像上畫一個簡單抽的矩形,指定左上角和右下角,並定義顏色,大小,線型等
Point((i+1)*binW,histimg.rows - val),
Scalar(buf.at<Vec3b>(i)), -1, 8 );
}
}
calcBackProject(&hue, 1, 0, hist, backproj, &phranges);//計算直方圖的反向投影,計算hue圖像0通道直方圖hist的反向投影,並讓入backproj中
backproj &= mask;
//opencv2.0之後的版本函數命名前沒有cv兩字了,而且若是函數名是由2個意思的單詞片斷組成的話,且前面那個片斷不夠成單詞,則第一個字母要
//大寫,好比Camshift,若是第一個字母是個單詞,則小寫,好比meanShift,可是第二個字母必定要大寫
meanShift(backproj, trackWindow, //trackWindow爲鼠標選擇的區域,TermCriteria爲肯定迭代終止的準則
TermCriteria( CV_TERMCRIT_EPS | CV_TERMCRIT_ITER, 10, 1 ));//CV_TERMCRIT_EPS是經過forest_accuracy,CV_TERMCRIT_ITER
if( trackWindow.area() <= 1 ) //是經過max_num_of_trees_in_the_forest
{
int cols = backproj.cols, rows = backproj.rows, r = (MIN(cols, rows) + 5)/6;
trackWindow = Rect(trackWindow.x - r, trackWindow.y - r,
trackWindow.x + r, trackWindow.y + r) &
Rect(0, 0, cols, rows);//Rect函數爲矩陣的偏移和大小,即第一二個參數爲矩陣的左上角點座標,第三四個參數爲矩陣的寬和高
}
if( backprojMode )
cvtColor( backproj, image, CV_GRAY2BGR );//所以投影模式下顯示的也是rgb圖?
//ellipse( image, trackBox, Scalar(0,0,255), 3, CV_AA );//跟蹤的時候以橢圓爲表明目標
rectangle(image,Point(trackWindow.x,trackWindow.y),Point(trackWindow.x+trackWindow.width,trackWindow.y+trackWindow.height),Scalar(0,0,255),-1,CV_AA);
}
}
//後面的代碼是無論pause爲真仍是爲假都要執行的
else if( trackObject < 0 )//同時也是在按了暫停字母之後
paused = false;
if( selectObject && selection.width > 0 && selection.height > 0 )
{
Mat roi(image, selection);
bitwise_not(roi, roi);//bitwise_not爲將每個bit位取反
}
imshow( "CamShift Demo", image );
imshow( "Histogram", histimg );
char c = (char)waitKey(10);
if( c == 27 ) //退出鍵
break;
switch(c)
{
case 'b': //反向投影模型交替
backprojMode = !backprojMode;
break;
case 'c': //清零跟蹤目標對象
trackObject = 0;
histimg = Scalar::all(0);
break;
case 'h': //顯示直方圖交替
showHist = !showHist;
if( !showHist )
destroyWindow( "Histogram" );
else
namedWindow( "Histogram", 1 );
break;
case 'p': //暫停跟蹤交替
paused = !paused;
break;
default:
;
}
}
return 0;
}
本文感性上認識了怎樣使用meanShift()和CamShift()函數,跟進一步的實現原理須要看其相關的論文和代碼才能理解。可是從本例中調用的其它函數也能夠學到不少opencv函數,效果仍是很不錯的。