Bayesian在識別領域的貢獻,着實吸引人html
閱讀筆記算法
(簡介,另單獨詳述) app
經過上面的分析,咱們知道了,一個Gabor核能獲取到圖像某個頻率鄰域的響應狀況,這個響應結果能夠看作是圖像的一個特徵。框架
那麼,咱們若是用多個不一樣頻率的Gabor核去獲取圖像在不一樣頻率鄰域的響應狀況,最後就能造成圖像在各個頻率段的特徵,這個特徵就能夠描述圖像的頻率信息了。
上圖展現了一系列具備不一樣頻率的 Gabor 核,用這些核與圖像卷積,咱們就能獲得圖像上每一個點和其附近區域的頻率分佈狀況。函數
因爲紋理特徵一般和頻率相關,所以Gabor核常常用來做爲紋理特徵。工具
又由於字符識別問題一般都是識別紋理的過程,因此Gabor核在光學字符識別(OCR)系統中也有普遍應用。大數據
Ref: http://blog.csdn.net/xidianzhimeng/article/details/19493019優化
Gabor小波與人類視覺系統中簡單細胞的視覺刺激響應很是類似。它在提取目標的局部空間和頻率域信息方面具備良好的特性。ui
雖然Gabor小波自己並不能構成正交基,但在特定參數下可構成緊框架。spa
Gabor小波對於圖像的邊緣敏感,可以提供良好的方向選擇和尺度選擇特性,並且對於光照變化不敏感,可以提供對光照變化良好的適應性。上述特色使Gabor小波被普遍應用於視覺信息理解。
二維Gabor小波變換是在時頻域進行信號分析處理的重要工具,其變換系數有着良好的視覺特性和生物學背景,所以被普遍應用於圖像處理、模式識別等領域。
與傳統的傅立葉變換相比,Gabor小波變換具備良好的時頻局部化特性。即很是容易地調整Gabor濾波器的方向、基頻帶寬及中心頻率從而可以最好的兼顧信號在時空域和頻域中的分辨能力;
Gabor小波變換具備多分辨率特性即變焦能力。即採用多通道濾波技術,將一組具備不一樣時頻域特性的Gabor小波應用於圖像變換,每一個通道都可以獲得輸入圖像的某種局部特性,這樣能夠根據須要在不一樣粗細粒度上分析圖像。
此外,在特徵提取方面,Gabor小波變換與其它方法相比:
不管從生物學的角度仍是技術的角度,Gabor特徵都有很大的優越性。
研究代表,在基本視覺皮層裏的簡單細胞的感覺野侷限在很小的空域範圍內,而且高度結構化。
它的小波特性說明了Gabor濾波結果是描述圖像局部灰度分佈的有力工具,所以,可使用Gabor濾波來抽取圖像的紋理信息. 因爲Gabor特徵具備良好的空間局部性和方向選擇性,並且對光照、姿態具備必定的魯棒性,所以在人臉識別中得到了成功的應用。
然而,大部分基於Gabor特徵的人臉識別算法中,只應用了Gabor幅值信息,而沒有應用相位信息,主要緣由是Gabor相位信息隨着空間位置呈週期性變化,而幅值的變化相對平滑而穩定,幅值反映了圖像的能量譜,Gabor幅值特徵一般稱爲Gabor 能量特徵(Gabor Energy Features. Gabor小波可像放大鏡同樣放大灰度的變化,人臉的一些關鍵功能區域(眼睛、鼻子、嘴、眉毛等)的局部特徵被強化,從而有利於區分不一樣的人臉圖像。Gabor小波核函數具備與哺育動物大腦皮層簡單細胞的二維反射區相同的特性,即具備較強的空間位置和方向選擇性,而且可以捕捉對應於空間和頻率的局部結構信息;
Gabor濾波器對於圖像的亮度和對比度變化以及人臉姿態變化具備較強的健壯性,而且它表達的是對人臉識別最爲有用的局部特徵。
Gabor 小波是對高級脊椎動物視覺皮層中的神經元的良好逼近,是時域和頻域精確度的一種折中。
Ref: http://blog.chinaunix.net/uid-14281799-id-2239597.html
通常狀況下圖像的邊沿含有圖像的主要信息,利用圖像邊沿含有的信息能夠作圖像識別。用一組增強了方向性的 gabor 核和圖像作卷積能夠提取出圖像的邊沿信息。
首先把通常的 gabor 核改一下增強方向性,改過的核在這個程序裏叫 zegabor。用一組不一樣方向的 zegabor 核和圖像做卷積,
在卷積結果圖中,圖像的邊緣部分的座標點上的不一樣方向結果中會有某一個或幾個比平均值大不少,取這樣的點作特徵點,這些方向作特徵值。
例如玩具貓,右圖上的
gabor 特徵是有方向的,此次的實驗主要就是在圖像中特徵點比較密集方向變化較多的區域中把臨近的特徵點編成一小組,用其中一個特徵值較大的點上的特徵的方向作小組主方向,而後臨近的幾個小組編成一大組,記錄大組中各小組的相對位置,作圖像匹配時就在圖像中尋找類似的特徵組。
有了圖,就比較直觀。
(另起一篇詳述原理:屬於小波,小波這個東西,是須要仔細看一看di.)
其實就是:
全部的算子都是artifical,但沒有人類,模型原本就是客觀存在的。那麼,
咱們不設計模型,咱們經過大數據找模型!
並且不是單純的給個參數的分佈,參數的分佈也是訓練出來的,儘量地,徹徹地地的 無(人工)參!
什麼Sift,什麼Gabor通通不要不要的啦!
讓咱們經過數據訓練來給出客觀的模型!好比接下來的 GaussianFace.
1. Introduction
涉及到的以下概念搞明白。
其中的大量數據訓練過程當中如何優化的問題,貌似是很值錢的東西。
概念:
主成分分析 與 隱變量模型(Principal Component Analysis,PCA & Latent Variable Model)
kernel Fisher discriminant analysis (KFDA), also known as generalized discriminant analysis and kernel discriminant analysis, is a kernelized version of linear discriminant analysis (LDA).
共軛梯度法(Scaled Conjugate Gradient): 優化方法。
高斯過程近似(GP approximations):優化方法。
Anchor Graphs:W. Liu, J. He, and S.-F. Chang. Large graph construction for scalable semi-supervised learning. In ICML, pages 679–686, 2010.
(另各自詳述)
2. Related Work
Continue...