日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

級聯分類器算法原理解析_相關技巧

作者:wumh7 ? 更新時間: 2022-07-03 編程語言

一、人臉檢測算法分類

目前人臉檢測方法主要分為兩大類,基于知識和基于統計。

基于知識的人臉檢測方法主要包括:模板匹配,人臉特征,形狀與邊緣,紋理特征,顏色特征。

基于統計的人臉檢測方法主要包括:主成分分析與特征臉法,神經網絡模型,隱馬爾可夫模型,支持向量機,Adaboost算法。

基于知識的方法將人臉看成不同特征的特定組合,即通過人臉的眼睛、嘴巴、鼻子、耳朵等特征及其組合關系來檢測人臉。

基于統計的方法將人臉看成統一的二維像素矩陣,通過大量的樣本構建人臉子空間,通過相似度的大小來判斷人臉是否存在。

二、Haar分類器算法

本文介紹的Haar分類器方法,包含了Adaboost算法。

Haar算法實際上是運用了boosting算法中的Adaboost算法。Haar分類器利用Adaboost算法構建一個強分類器進行級聯,而在底層特征抽取上采用的是高校的矩形特征以及積分圖方法。

Haar分類器=類Haar特征+積分圖法+Adaboost算法+級聯。

Haar分類器主要步驟如下:

1. 提取類Haar特征;

2. 利用積分圖法對類Haar特征提取進行加速;

3. 使用Adaboost算法訓練強分類器,區分出人臉和非人臉;

4. 使用篩選式級聯把強的分類器級聯在一起,從而提高檢測準確度。

2.1 人臉檢測的大概流程

我們用一個小的窗口在一幅圖片中不斷的滑動,每滑動到一個位置,就對該小窗口內的圖像進行特征提取,若提取到的特征通過了所有訓練好的強分類器的判定,則我們判定該小窗口的圖片內含有人臉。

2.2 Haar-like特征

Viola牛們提出的Haar-like特征如下:

將Haar-like特征在圖片上進行滑動,在每個位置計算白色區域對應的像素值的和減去黑色區域對應的像素值的和,從而提取出該位置的特征,人臉區域與非人臉區域提取出的特征值不同,從而區分出人臉區域和非人臉區域。

我們可以用多個矩形特征計算得到一個區分度更大的特征值,從而增加人臉區域和非人臉區域的區分度。那么該怎么組合這些矩形特征才能得到更好的區分度呢?Adaboost算法就是用來解決這個問題的。

2.3 Adaboost算法

Adaboost算法是一種一般性的分類器性能提升算法,不僅僅是限定于一種算法。Adaboost算法可以用來更好地選擇矩形特征的組合,而這些矩形特征的組合就構成了分類器,分類器以決策樹的方式存儲這些矩形特征組合。

Adaboost是基于boosting算法的,而boosting算法涉及到弱分類器和強分類器的概念。弱分類器是基于弱學習的,其分類正確率較低,但是較容易獲得,強分類器是基于強學習,其分類正確率較高,但是較難獲得。

Kearns和Valiant兩個大神提出弱學習和強學習是等價的,并且證明只要樣本充足,弱學習可以通過一定的組合獲得任意精度的強學習。這個證明為boostting算法提供了理論基礎,使其成為一個能夠提高分類器性能的一般性方法。

而boosting算法主要存在兩個問題,一個是它需要預先知道弱分類器的誤差,另一個是它在訓練后期會專注于幾個難以分類的樣本,因此會變得不穩定。針對這些問題,后來Freund和Schapire提出了實際可行的Adaboost算法。

2.4 弱分類器的構建

我們可以用決策樹來構建一個簡單的弱分類器, 將提取到的特征與分類器的特征進行逐個比較,從而判斷該特征是否屬于人臉,如下圖所示:

該分類器的重點在于閾值的設定。閾值的設定方法如下:

(1)對于每個分類器計算訓練樣本的特征值;

(2)對這些特征值進行排序;

(3)計算所有屬于人臉的樣本的特征值的和t1和所有屬于非人臉的樣本的特征值的和t0;

(4)計算第i個樣本前所有屬于人臉的樣本的特征值的和s1is1i和屬于非人臉的樣本的特征值的和s0is0i;

(5)計算r=min((s1+(t0i?s0i)),s0+(t1i?s1i))r=min((s1+(t0i?s0i)),s0+(t1i?s1i))。

計算得到的最小的rr值即為所求閾值。有了閾值,我們便用決策樹構成了一個簡單的弱分類器,如下所示:

其中x子圖像窗口,f是特征,p的作用是控制不等號方向,使得不等號都為"<",θθ是閾值。

2.5 強分類器的構造

這個部分我還是似懂非懂。按照我的理解,強分類為的構造是這樣的:

(1)首先選出部分樣本,給它們賦予權重1/N,其中N為總的樣本的個數;

(2)用選出的樣本訓練弱分類器;

(3)提高錯誤分類的樣本的權重,并舍棄正確分類的樣本,加入新的樣本,新的樣本的權重還是之前的1/N,進行新一輪的弱分類器的訓練;

(4)經過T輪后,訓練出T個弱分類器;

(5)將這T個弱分類器根據他們的分類錯誤率加權求和構成一個強的分類器,如下所示:

其中αtαt是第t個弱分類器的權重,βtβt是第t個弱分類器的錯誤率。強分類器相當于先讓各個弱分類器進行投票,然后讓投票結果根據各弱分類器的錯誤率進行加權相加,最后與平均的投票結果進行比較得到最終結果。

Reference:

https://www.jb51.net/article/222465.htm

原文鏈接:https://www.cnblogs.com/wumh7/p/9403873.html

欄目分類
最近更新