// 鼻尖 30 // 鼻根 27 // 下巴 8 // 左眼外角 36 // 左眼內角 39 // 右眼外角 45 // 右眼內角 42 // 嘴中心 66 // 嘴左角 48 // 嘴右角 54 // 左臉最外 0 // 右臉最外 16
https://blog.csdn.net/zj360202/article/details/78674700python
--------------------------------------------------------------------------web
對於一些經常使用的人臉庫經常會提供對應的人臉框的位置以及人臉的特徵點的座標。雖然每每會有68個特徵點的座標,可是若是是用於人臉對齊,並不須要用到全部的點座標。因此知道特徵點的檢測順序可以幫助咱們很快的找到咱們所須要的特定點座標。算法
如圖1所示,圖中將68個特徵點的檢測順序一次標註了出來。(圖片摘自http://blog.csdn.net/zmdsjtu/article/details/53454071)
數據庫
固然不是全部的數據庫都提供68個特徵點,也有78個點,例如圖2所示。(圖片摘自http://blog.163.com/huai_jing@126/blog/static/1718619832013111525150259/)
編程
對於更加少的特徵點的出現順序與前面相似,能夠推理出來。例如5個特徵點的座標信息能夠判別出來每一個座標對應的是那個部位(左右眼,鼻子,左右嘴角)。windows
固然不是全部的特徵點都會按照這個順序進行變化,可是能夠經過簡單的算法將每一個點一次顯示出來,從而能夠找到咱們所須要的點。(python)數組
def point_xy(s): first = s.find(':') x = s[0:first] y = s[first+1:] return x,y for eachpoint in img_point: [x,y] = point_xy(eachpoint) [x,y] = [float(x),float(y)] cv2.circle(im,(int(x),int(y)),2,(0,0,255),-1) cv2.imshow('img',img) cv2.waitKey(0)
其中 img_point是保存了全部特徵點的一個數組。這樣就可以一步一步的看出每一個特徵點的順序。ide
https://blog.csdn.net/u011732139/article/details/56286838?locationNum=4&fps=1函數
--------------------------------------------------------------測試
本文主要演示Dlib在windows環境下利用VS配置環境運行成功調用攝像頭的實時人臉特徵點提取以及輪廓的描繪。
///////////////////////////////軟件資源////////////////////////////////
Dlib下載連接:http://download.csdn.net/detail/zmdsjtu/9614780
//官網連接 http://dlib.net
//但最新版的dlib用VS2015會報一個很奇葩的錯誤,故而推薦上面的下載連接
人臉庫下載連接:http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2
//////////////////////////////正文/////////////////////////////////////
下載完Dlib以後解壓。
接着新建一個空項目,把下載的人臉庫(.dat文件解壓壓縮包後)添加到以下的目錄下。
繼而在項目裏添加Dlib人臉庫裏的dlib\\all\\source.cpp進入項目
//若是不添加會報錯,添加了source.cpp至關於把須要用的東西全引入進來了
接着再添加examples\\webcam_face_pose_ex.cpp進入項目
//這個是咱們此次主要測試的提取人臉特徵點的重要CPP
接着咱們開始配置環境~
首先要配置opencv環境以及加上webcam須要調用的文件的目錄
參考以下連接:http://blog.csdn.net/zmdsjtu/article/details/52235056
添加包含目錄:
C:\opencv_310\build\include 這個是opencv的包含目錄
C:\Users\handsome\Desktop\dlib-master 這個是dlib的主目錄
添加庫目錄:
C:\opencv_310\build\x86\vc14\lib 這個是opencv的lib存儲位置
附加依賴項的輸入加上:
opencv_world310.lib opencv_ts310.lib 若是是debug或者其餘版本的opencv換掉便可
須要注意的幾點:
1.配置環境時選擇的是X86仍是X64以及是Release仍是Debug,以後調試的時候也要選擇好
2.人臉庫(也就是那個一百兆的.dat文件)須要放對位置,否則程序沒結果!若是直接打開EXE測試的話直接放到和EXE一個目錄便可。
3.電腦必定要有攝像頭!這裏利用的是opencv調用攝像頭
4.程序卡頓是由於detector函數耗時過長,能夠考慮壓縮畫質或者換好一點的處理器
5.筆記本親測效果遠不如外置攝像頭
6.這個庫能夠商用
接着就能夠正常運行程序啦~~~
結果如圖:
最後祝你們編程愉快:)
https://blog.csdn.net/zmdsjtu/article/details/52422847
-----------------------------------------------------------------------------------------------
主要在官網給的Demo基礎之上用Opencv把特徵點描繪出來了。
很早以前寫過一篇配置Dlib環境的博客,如今來稍微梳理下提取特徵點的使用方法。
上一篇配置環境博客地址:http://blog.csdn.net/zmdsjtu/article/details/52422847
慣例先放效果圖吧:
動圖以下:
接着就是簡單粗暴的代碼:
//@zmdsjtu@163.com //2016-12-4 //http://blog.csdn.net/zmdsjtu/article/details/53454071 #include <dlib/opencv.h> #include <opencv2/opencv.hpp> #include <dlib/image_processing/frontal_face_detector.h> #include <dlib/image_processing/render_face_detections.h> #include <dlib/image_processing.h> #include <dlib/gui_widgets.h> using namespace dlib; using namespace std; int main() { try { cv::VideoCapture cap(0); if (!cap.isOpened()) { cerr << "Unable to connect to camera" << endl; return 1; } //image_window win; // Load face detection and pose estimation models. frontal_face_detector detector = get_frontal_face_detector(); shape_predictor pose_model; deserialize("shape_predictor_68_face_landmarks.dat") >> pose_model; // Grab and process frames until the main window is closed by the user. while (cv::waitKey(30) != 27) { // Grab a frame cv::Mat temp; cap >> temp; cv_image<bgr_pixel> cimg(temp); // Detect faces std::vector<rectangle> faces = detector(cimg); // Find the pose of each face. std::vector<full_object_detection> shapes; for (unsigned long i = 0; i < faces.size(); ++i) shapes.push_back(pose_model(cimg, faces[i])); if (!shapes.empty()) { for (int i = 0; i < 68; i++) { circle(temp, cvPoint(shapes[0].part(i).x(), shapes[0].part(i).y()), 3, cv::Scalar(0, 0, 255), -1); // shapes[0].part(i).x();//68個 } } //Display it all on the screen imshow("Dlib特徵點", temp); } } catch (serialization_error& e) { cout << "You need dlib's default face landmarking model file to run this example." << endl; cout << "You can get it from the following URL: " << endl; cout << " http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2" << endl; cout << endl << e.what() << endl; } catch (exception& e) { cout << e.what() << endl; } }
來看下上面那段代碼,全部的須要的特徵點都存儲在Shapes裏。仔細看看下面這行代碼:
circle(temp, cvPoint(shapes[0].part(i).x(), shapes[0].part(i).y()), 3, cv::Scalar(0, 0, 255), -1);
能夠看到shpes[0]表明的是第一我的(能夠同時檢測到不少我的),part(i)表明的是第i個特徵點,x()和y()是訪問特徵點座標的途徑。
每一個特徵點的編號以下:
在上述畫圖的基礎上加了以下一行代碼:
putText(temp, to_string(i), cvPoint(shapes[0].part(i).x(), shapes[0].part(i).y()), CV_FONT_HERSHEY_PLAIN, 1, cv::Scalar(255, 0, 0),1,4);
效果圖:
對照着上圖,好比說想獲取鼻尖的座標,那麼橫座標就是shapes[0].part[30].x(),其他的相似。
在這個的基礎上就能夠作不少有意思的事情啦,2333
最後祝你們開發愉快:)
原貼地址:https://blog.csdn.net/zmdsjtu/article/details/53454071