Python3+Dlib實現簡單人臉識別案例

Python3+Dlib實現簡單人臉識別案例


 寫在前邊

  很早很早以前,當我仍是一個傻了吧唧的專科生的時候,我就據說過人臉識別,據說過算法,據說過人工智能,而且也出生牛犢不怕虎般的學習過TensorFlow,結果嘞,被虎啃得連渣都不剩!今後不再敢接觸算法和人工智能了、、、html

  可是!BUT!在本身經歷的事情多了以後,在受打擊到習覺得常了以後, 在努力半天仍舊一事無成以後,你就會悟出一個道理  ——  老子從未成功過,又怕哪門子失敗!python

  因此,對數學一竅不通的我,毅然決然的再次走上了一條不歸路 ......算法

—— 來自一隻一事無成的小菜雞    windows

項目介紹

  我想作的是一個相似於人臉識別的東西。看到網上也是有不少的開源庫提供使用,爲開發提供了很大的方便。我選擇目前用的比較多的dlib庫進行人臉識別與特徵標定。使用python也縮短了開發週期。app

  官網對於dlib的介紹是:Dlib包含普遍的機器學習算法。全部的設計都是高度模塊化的,快速執行,而且經過一個乾淨而現代的C ++ API,使用起來很是簡單。它用於各類應用,包括機器人技術,嵌入式設備,手機和大型高性能計算環境。機器學習

  儘管解釋都很高大上,可是呢,對於我這種小菜雞而言,利用他的九牛一毛作一些小的demo也很不錯。ide

開發環境的搭建

由於個人操做系統是Linux的,因此我使用Linux來記錄,windows須要安裝的東西都是同樣的,只不過有個別包安裝起來有點麻煩,不過不是問題。模塊化

一、安裝 Python 。性能

若是是Linux系統自帶Python2和Python3,能夠根據本身的須要設置Python默認版本。學習

二、安裝 opencv。

http://www.javashuo.com/article/p-rzzjsgrf-r.html

三、安裝 dlib。

http://www.javashuo.com/article/p-rzzjsgrf-r.html

四、安裝 python-skimage。

http://www.javashuo.com/article/p-xitjbgel-x.html

五、若是想要使用人臉模型特徵標定的話,還須要一我的臉面部形狀預測器。

這個能夠經過本身的照片進行訓練,也能夠從網上下載一些大神訓練好的,點擊下載:

http://dlib.net/files/shape_predictor_68_face_landmarks.dat.bz2  

實現圖片的人臉檢測

import cv2
import dlib
from skimage import io

# 使用特徵提取器get_frontal_face_detector
detector = dlib.get_frontal_face_detector()
# dlib的68點模型,使用做者訓練好的特徵預測器
predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")
# 圖片所在路徑
img = io.imread("2.jpg")
# 生成dlib的圖像窗口
win = dlib.image_window()
win.clear_overlay()
win.set_image(img)

# 特徵提取器的實例化
dets = detector(img, 1)
print("人臉數:", len(dets))

for k, d in enumerate(dets):
    print("第", k + 1, "我的臉d的座標:",
          "left:", d.left(),
          "right:", d.right(),
          "top:", d.top(),
          "bottom:", d.bottom())

    width = d.right() - d.left()
    heigth = d.bottom() - d.top()

    print('人臉面積爲:', (width * heigth))

    # 利用預測器預測
    shape = predictor(img, d)
    # 標出68個點的位置
    for i in range(68):
        cv2.circle(img, (shape.part(i).x, shape.part(i).y), 4, (0, 255, 0), -1, 8)
        cv2.putText(img, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5, (255, 255, 255))
    # 顯示一下處理的圖片,而後銷燬窗口
    cv2.imshow('face', img)
    cv2.waitKey(0)

    

   

利用攝像頭實現人臉識別情緒檢測 

#!Anaconda/anaconda/python
# coding: utf-8

"""
從視屏中識別人臉,並實時標出面部特徵點
"""

import dlib  # 人臉識別的庫dlib
import numpy as np  # 數據處理的庫numpy
import cv2  # 圖像處理的庫OpenCv


class face_emotion():
    def __init__(self):
        # 使用特徵提取器get_frontal_face_detector
        self.detector = dlib.get_frontal_face_detector()
        # dlib的68點模型,使用做者訓練好的特徵預測器
        self.predictor = dlib.shape_predictor("shape_predictor_68_face_landmarks.dat")

        # 建cv2攝像頭對象,這裏使用電腦自帶攝像頭,若是接了外部攝像頭,則自動切換到外部攝像頭
        self.cap = cv2.VideoCapture(0)
        # 設置視頻參數,propId設置的視頻參數,value設置的參數值
        self.cap.set(3, 480)
        # 截圖screenshoot的計數器
        self.cnt = 0

    def learning_face(self):

        # 眉毛直線擬合數據緩衝
        line_brow_x = []
        line_brow_y = []

        # cap.isOpened() 返回true/false 檢查初始化是否成功
        while (self.cap.isOpened()):

            # cap.read()
            # 返回兩個值:
            #    一個布爾值true/false,用來判斷讀取視頻是否成功/是否到視頻末尾
            #    圖像對象,圖像的三維矩陣
            flag, im_rd = self.cap.read()

            # 每幀數據延時1ms,延時爲0讀取的是靜態幀
            k = cv2.waitKey(1)

            # 取灰度
            img_gray = cv2.cvtColor(im_rd, cv2.COLOR_RGB2GRAY)

            # 使用人臉檢測器檢測每一幀圖像中的人臉。並返回人臉數rects
            faces = self.detector(img_gray, 0)

            # 待會要顯示在屏幕上的字體
            font = cv2.FONT_HERSHEY_SIMPLEX

            # 若是檢測到人臉
            if (len(faces) != 0):

                # 對每一個人臉都標出68個特徵點
                for i in range(len(faces)):
                    # enumerate方法同時返回數據對象的索引和數據,k爲索引,d爲faces中的對象
                    for k, d in enumerate(faces):
                        # 用紅色矩形框出人臉
                        cv2.rectangle(im_rd, (d.left(), d.top()), (d.right(), d.bottom()), (0, 0, 255))
                        # 計算人臉熱別框邊長
                        self.face_width = d.right() - d.left()

                        # 使用預測器獲得68點數據的座標
                        shape = self.predictor(im_rd, d)
                        # 圓圈顯示每一個特徵點
                        for i in range(68):
                            cv2.circle(im_rd, (shape.part(i).x, shape.part(i).y), 2, (0, 255, 0), -1, 8)
                            # cv2.putText(im_rd, str(i), (shape.part(i).x, shape.part(i).y), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                            #            (255, 255, 255))

                        # 分析任意n點的位置關係來做爲表情識別的依據
                        mouth_width = (shape.part(54).x - shape.part(48).x) / self.face_width  # 嘴巴咧開程度
                        mouth_higth = (shape.part(66).y - shape.part(62).y) / self.face_width  # 嘴巴張開程度
                        # print("嘴巴寬度與識別框寬度之比:",mouth_width_arv)
                        # print("嘴巴高度與識別框高度之比:",mouth_higth_arv)

                        # 經過兩個眉毛上的10個特徵點,分析挑眉程度和皺眉程度
                        brow_sum = 0  # 高度之和
                        frown_sum = 0  # 兩邊眉毛距離之和
                        for j in range(17, 21):
                            brow_sum += (shape.part(j).y - d.top()) + (shape.part(j + 5).y - d.top())
                            frown_sum += shape.part(j + 5).x - shape.part(j).x
                            line_brow_x.append(shape.part(j).x)
                            line_brow_y.append(shape.part(j).y)

                        # self.brow_k, self.brow_d = self.fit_slr(line_brow_x, line_brow_y)  # 計算眉毛的傾斜程度
                        tempx = np.array(line_brow_x)
                        tempy = np.array(line_brow_y)
                        z1 = np.polyfit(tempx, tempy, 1)  # 擬合成一次直線
                        self.brow_k = -round(z1[0], 3)  # 擬合出曲線的斜率和實際眉毛的傾斜方向是相反的

                        brow_hight = (brow_sum / 10) / self.face_width  # 眉毛高度佔比
                        brow_width = (frown_sum / 5) / self.face_width  # 眉毛距離佔比
                        # print("眉毛高度與識別框高度之比:",round(brow_arv/self.face_width,3))
                        # print("眉毛間距與識別框高度之比:",round(frown_arv/self.face_width,3))

                        # 眼睛睜開程度
                        eye_sum = (shape.part(41).y - shape.part(37).y + shape.part(40).y - shape.part(38).y +
                                   shape.part(47).y - shape.part(43).y + shape.part(46).y - shape.part(44).y)
                        eye_hight = (eye_sum / 4) / self.face_width
                        # print("眼睛睜開距離與識別框高度之比:",round(eye_open/self.face_width,3))

                        # 分狀況討論
                        # 張嘴,多是開心或者驚訝
                        if round(mouth_higth >= 0.03):
                            if eye_hight >= 0.056:
                                cv2.putText(im_rd, "amazing", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX,
                                            0.8,
                                            (0, 0, 255), 2, 4)
                            else:
                                cv2.putText(im_rd, "happy", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
                                            (0, 0, 255), 2, 4)

                        # 沒有張嘴,多是正常和生氣
                        else:
                            if self.brow_k <= -0.3:
                                cv2.putText(im_rd, "angry", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
                                            (0, 0, 255), 2, 4)
                            else:
                                cv2.putText(im_rd, "nature", (d.left(), d.bottom() + 20), cv2.FONT_HERSHEY_SIMPLEX, 0.8,
                                            (0, 0, 255), 2, 4)

                # 標出人臉數
                cv2.putText(im_rd, "Faces: " + str(len(faces)), (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)
            else:
                # 沒有檢測到人臉
                cv2.putText(im_rd, "No Face", (20, 50), font, 1, (0, 0, 255), 1, cv2.LINE_AA)

            # 添加說明
            im_rd = cv2.putText(im_rd, "S: screenshot", (20, 400), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)
            im_rd = cv2.putText(im_rd, "Q: quit", (20, 450), font, 0.8, (0, 0, 255), 1, cv2.LINE_AA)

            # 按下s鍵截圖保存
            if (k == ord('s')):
                self.cnt += 1
                cv2.imwrite("screenshoot" + str(self.cnt) + ".jpg", im_rd)

            # 按下q鍵退出
            if (k == ord('q')):
                break

            # 窗口顯示
            cv2.imshow("camera", im_rd)

        # 釋放攝像頭
        self.cap.release()

        # 刪除創建的窗口
        cv2.destroyAllWindows()


if __name__ == "__main__":
    my_face = face_emotion()
    my_face.learning_face()

  

 

寫在後面

 OK,我認可,這不是我寫的,我很菜,寫不出來,站在巨人的腳指甲蓋上作出來的,好的,實際上是把人家代碼拷貝下來本身改的,也沒改多少。

大神博客地址:http://www.javashuo.com/article/p-awisszhc-cm.html

相關文章
相關標籤/搜索