OpenCV系列之特徵匹配+單應性查找對象 | 四十五

目標
在本章節中,算法

  • 咱們將把calib3d模塊中的特徵匹配和findHomography混合在一塊兒,以在複雜圖像中找到已知對象
    基礎
    那麼咱們在上一環節上作了什麼?咱們使用了queryImage,找到了其中的一些特徵點,咱們使用了另外一個trainImage,也找到了該圖像中的特徵,而且找到了其中的最佳匹配。簡而言之,咱們在另外一個混亂的圖像中找到了對象某些部分的位置。此信息足以在trainImage上準確找到對象。
    爲此,咱們能夠使用calib3d模塊中的函數,即cv.findHomography()。若是咱們從兩個圖像中傳遞點集,它將找到該對象的透視變換。而後,咱們能夠使用cv.perspectiveTransform()查找對象。找到轉換至少須要四個正確的點。
    咱們已經看到,匹配時可能會出現一些可能影響結果的錯誤。爲了解決這個問題,算法使用RANSAC或LEAST_MEDIAN(能夠由標誌決定)。所以,提供正確估計的良好匹配稱爲「內部點」,其他的稱爲「外部點」。cv.findHomography()返回指定內部和外部點的掩碼。
    讓咱們開始吧!!!
    代碼
    首先,像往常同樣,讓咱們在圖像中找到SIFT功能並應用比例測試以找到最佳匹配。

import numpy as np
import cv2 as cv
from matplotlib import pyplot as plt
MIN_MATCH_COUNT = 10
img1 = cv.imread('box.png',0) # 索引圖像
img2 = cv.imread('box_in_scene.png',0) # 訓練圖像app

初始化SIFT檢測器

sift = cv.xfeatures2d.SIFT_create()ide

用SIFT找到關鍵點和描述符

kp1, des1 = sift.detectAndCompute(img1,None)
kp2, des2 = sift.detectAndCompute(img2,None)
FLANN_INDEX_KDTREE = 1
index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
search_params = dict(checks = 50)
flann = cv.FlannBasedMatcher(index_params, search_params)
matches = flann.knnMatch(des1,des2,k=2)函數

#根據Lowe的比率測試存儲全部符合條件的匹配項。

good = []
for m,n in matches:
if m.distance < 0.7*n.distance:
good.append(m)測試

如今咱們設置一個條件,即至少有10個匹配項(由MIN_MATCH_COUNT定義)能夠找到對象。不然,只需顯示一條消息,說明沒有足夠的匹配項。
若是找到足夠的匹配項,咱們將在兩個圖像中提取匹配的關鍵點的位置。他們被傳遞以尋找預期的轉變。一旦得到了這個3x3轉換矩陣,就能夠使用它將索引圖像的角轉換爲訓練圖像中的相應點。而後咱們畫出來。

if len(good)>MIN_MATCH_COUNT:
src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)
dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)
M, mask = cv.findHomography(src_pts, dst_pts, cv.RANSAC,5.0)
matchesMask = mask.ravel().tolist()
h,w,d = img1.shape
pts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)
dst = cv.perspectiveTransform(pts,M)
img2 = cv.polylines(img2,[np.int32(dst)],True,255,3, cv.LINE_AA)
else:
print( "Not enough matches are found - {}/{}".format(len(good), MIN_MATCH_COUNT) )
matchesMask = None3d

最後,咱們繪製內部線(若是成功找到對象)或匹配關鍵點(若是失敗)。

draw_params = dict(matchColor = (0,255,0), # 用綠色繪製匹配
singlePointColor = None,
matchesMask = matchesMask, # 只繪製內部點
flags = 2)
img3 = cv.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params)
plt.imshow(img3, 'gray'),plt.show(code

請參閱下面的結果。對象在混亂的圖像中標記爲白色:

![](https://s4.51cto.com/images/blog/202101/06/b5ac64cf3ae41a43f2dc3b2584211f45.png?x-oss-process=image/watermark,size_16,text_QDUxQ1RP5Y2a5a6i,color_FFFFFF,t_100,g_se,x_10,y_10,shadow_90,type_ZmFuZ3poZW5naGVpdGk=)
相關文章
相關標籤/搜索