事先說明,該篇文章中的代碼是我無心中發現的,這裏僅作一個分享,文末會給出參考文章,不喜勿噴。python
完整源碼和預訓練模型可在公衆號:「01二進制」後臺回覆:「AI換臉」獲取git
做爲一個常常逛b站的肥宅,前段時間無心中看到了一個名爲"換臉哥"作的換臉視頻,讓楊冪「穿越」到了1994年版的《射鵰英雄傳》裏,「代替」了朱茵,「出演」了黃蓉這個角色。視頻以下(b站視頻已經被刪了,只能轉載知乎的視頻了,原地址是楊冪「換臉」,AI換臉究竟有多可怕 - 科技富能量的文章 - 知乎):github
看完我便虎軀一震,這也太厲害了吧,這種技術一旦流行起來,ab不用去片場就能拍戲了啊,真的是躺着賺錢啊。這要是運用到H片上,豈不是😅😅😅算法
言歸正傳,做爲一個coder,在看到這個視頻以後我就很想知道這到底是怎麼作出來的,在查閱了一些資料後,我才發現最悲傷的事情莫過於,好不容易把源碼找到了,數據集下載好了,結果顯卡帶不起來…數組
Tips:這裏給出我以前找到的兩個有關視頻換臉的倉庫,有興趣的本身去了解下:微信
FaceItdom
既然條件不容許,那咱們只能下降成本,既然視頻裏的臉很差換,那就退而求其次,換一下圖片裏面的臉,果真在個人苦苦尋覓後,我找到了一個低配版的 Python 換臉大法:機器學習
《Switching Eds: Face swapping with Python, dlib, and OpenCV》ide
如下內容均參考上述所標註的文章,在這感謝原做者。
接下來我將會介紹如何經過一段簡短的 Python 腳本(200行左右)將一張圖片中面部特徵自動替換爲另一張圖片中的面部特徵。
具體過程分爲四個步驟:
numpy你們應該都很熟悉了,這裏我簡單介紹下dlib和opencv。
官網介紹其爲:A toolkit for making real world machine learning and data analysis applications,簡單來講他就是一個開源的機器學習庫,包含了不少機器學習的算法。同時對外提供了C++和Python的接口。使用dlib能夠大大簡化開發,好比人臉識別,特徵點檢測之類的工做均可以很輕鬆實現。同時也有不少基於dlib開發的應用和開源庫,好比face_recogintion庫(聽說識別率高達93%,有興趣的能夠查閱相關資料)。python下的安裝也很簡單,執行pip install dlib
便可。
OpenCV是Intel®開源計算機視覺庫。它由一系列 C 函數和少許 C++ 類構成,實現了圖像處理和計算機視覺方面的不少通用算法。是計算機視覺領域很是重要的一個開源庫。官網地址:opencv.org/
既然要換臉,咱們確定要先在圖片中找到人臉,dlib中有一個函數get_frontal_face_detector()
實現了面部特徵提取,核心算法來自於 Vahid Kazemi 和 Josephine Sullivan 的論文《One Millisecond Face Alignment with an Ensemble of Regression Tree》,我也沒有讀過這篇論文就不解釋了。提取面部特徵的代碼以下:
# 面部檢測器
detector = dlib.get_frontal_face_detector()
# 特徵提取器
predictor = dlib.shape_predictor('shape_predictor_68_face_landmarks.dat')
def GetLandmarks(img_path):
img = cv2.imread(img_path, cv2.IMREAD_COLOR)
rects = detector(img, 1)
if len(rects) > 1:
print('[Warning]: More than one face in picture, only choose one randomly...')
rects = rects[0]
elif len(rects) == 0:
print('[Error]: No face detected...')
return None
return img, np.matrix([[p.x, p.y] for p in predictor(img, rects[0]).parts()])
複製代碼
get_landmarks() 函數接受一個圖片,通過處理後以 numpy 數組的形式進行處理,並返回一個 68x2 的元素矩陣。矩陣的每一行與輸入圖像中特定特徵點的 x,y 座標相對應。
特徵提取器(predictor)須要一個大概的邊界框做爲算法的輸入。這將由傳統的面部檢測器(detector)提供。該面部檢測器會返回一個矩形列表,其中每個矩形與圖像中的一張人臉相對應。
生成 predictor 須要預先訓練好的模型。該模型可在微信公衆號「01二進制」後臺回覆"AI換臉"得到。
有了上述方法,咱們就能夠提取出圖片中的人臉了,可是兩張照片中的人臉方向確定都是不一致的(畢竟你不能保證每張都是證件照啊),就像下面這兩張圖:
這兩我的臉的方向明顯不一致啊,因此咱們還須要對人臉進行對齊。咱們如今已經獲取到每張圖片中人臉矩形的座標了,剩下的就是弄明白如何旋轉、平移和縮放第一個向量的全部點,使其儘量匹配第二個向量中的點就能夠了。這裏運用到了一個名爲**普氏分析法(Ordinary Procrustes Analysis)**的方法解決這個問題的,數學能力有限,數學依據參考註釋中的連接,這裏就直接放出代碼吧:
# refer:
# https://en.wikipedia.org/wiki/Procrustes_analysis#Ordinary_Procrustes_analysis
def TransferPoints(points1, points2):
points1 = points1.astype(np.float64)
points2 = points2.astype(np.float64)
c1 = np.mean(points1, axis=0)
c2 = np.mean(points2, axis=0)
points1 -= c1
points2 -= c2
s1 = np.std(points1)
s2 = np.std(points2)
points1 /= s1
points2 /= s2
# 奇異值分解
U, S, Vt = np.linalg.svd(points1.T * points2)
R = (U * Vt).T
return np.vstack([np.hstack(((s2 / s1) * R, c2.T - (s2 / s1) * R * c1.T)), np.matrix([0., 0., 1.])])
複製代碼
以後咱們再把對齊的結果利用 OpenCV 的 cv2.warpAffine 函數,將第二個圖片映射到第一個圖片上:
def WarpImg(img, M, dshape):
output_img = np.zeros(dshape, dtype=img.dtype)
cv2.warpAffine(img,
M[:2],
(dshape[1], dshape[0]),
dst=output_img,
borderMode=cv2.BORDER_TRANSPARENT,
flags=cv2.WARP_INVERSE_MAP)
return output_img
複製代碼
兩張圖片因爲不一樣的膚色和光線形成了覆蓋區域邊緣的不連續。因此咱們須要修正它:
def ModifyColor(img1, img2, landmarks1):
blur_amount = 0.6 * np.linalg.norm(
np.mean(landmarks1[LEFT_EYE_POINTS], axis=0) - np.mean(landmarks1[RIGHT_EYE_POINTS], axis=0))
blur_amount = int(blur_amount)
if blur_amount % 2 == 0:
blur_amount += 1
img1_blur = cv2.GaussianBlur(img1, (blur_amount, blur_amount), 0)
img2_blur = cv2.GaussianBlur(img2, (blur_amount, blur_amount), 0)
img2_blur += (128 * (img2_blur <= 1.0)).astype(img2_blur.dtype)
return (img2.astype(np.float64) * img1_blur.astype(np.float64) / img2_blur.astype(np.float64))
複製代碼
用一個蒙版(mask)來選擇圖 2 和圖 1 應被最終顯示的部分:
值爲 1 (白色)的地方爲圖 2 應顯示的區域,值爲 0 (黑色)的地方爲圖 1 應顯示的區域。值在 0 和 1 之間的地方爲圖 1 圖 2 的混合區域。
這是生成上述內容的代碼:
def GetFaceMask(img, landmarks):
img = np.zeros(img.shape[:2], dtype=np.float64)
groups = [
LEFT_EYE_POINTS + RIGHT_EYE_POINTS + LEFT_BROW_POINTS + RIGHT_BROW_POINTS,
NOSE_POINTS + MOUTH_POINTS,
]
for group in groups:
DrawConvexHull(img, landmarks[group], color=1)
img = np.array([img, img, img]).transpose((1, 2, 0))
img = (cv2.GaussianBlur(img, (11, 11), 0) > 0) * 1.0
img = cv2.GaussianBlur(img, (11, 11), 0)
return img
def DrawConvexHull(img, points, color):
points = cv2.convexHull(points)
cv2.fillConvexPoly(img, points, color=color)
def ModifyColor(img1, img2, landmarks1):
blur_amount = 0.6 * np.linalg.norm(
np.mean(landmarks1[LEFT_EYE_POINTS], axis=0) - np.mean(landmarks1[RIGHT_EYE_POINTS], axis=0))
blur_amount = int(blur_amount)
if blur_amount % 2 == 0:
blur_amount += 1
img1_blur = cv2.GaussianBlur(img1, (blur_amount, blur_amount), 0)
img2_blur = cv2.GaussianBlur(img2, (blur_amount, blur_amount), 0)
img2_blur += (128 * (img2_blur <= 1.0)).astype(img2_blur.dtype)
return (img2.astype(np.float64) * img1_blur.astype(np.float64) / img2_blur.astype(np.float64))
複製代碼
GetFaceMask()
函數定義是:爲一張圖像和一個標誌矩陣生成一個蒙版。蒙版會畫出兩個白色的凸多邊形:一個是眼睛周圍的區域,一個是鼻子和嘴部周圍的區域。以後,蒙版的邊緣區域向外羽化 11 個像素,這能夠幫助消除剩下的不連續部分。
本文參考了下述文章:
完整源碼和預訓練模型可在公衆號:「01二進制」後臺回覆:「AI換臉」獲取
至此,一個低配版的AI換臉就完成了,結果就如開頭那樣。這次實驗雖然已有換臉的雛形,可是精度還遠遠不夠,並且這種換臉若是用到視頻中確定是不堪入目的,畢竟作得好的已是下面這樣了:
方法教給你們了,圖片素材你們能夠本身找,玩一玩,要是能轉發到朋友圈讓更多人看到就更好了!
下篇更新"美國校隊蔡徐坤"打籃球視頻的txt版,這裏先放個預覽的GIF圖:
喜歡的小夥伴能夠長按下方二維碼關注哦~。👇