- 相關(guān)推薦
基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法
摘要:針對(duì)當(dāng)目標(biāo)跟蹤過程中目標(biāo)被全遮擋時(shí)易導(dǎo)致目標(biāo)跟蹤不精確、甚至丟失目標(biāo)的問題,提出一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法。當(dāng)前后幀Bhattacharyya系數(shù)匹配度大于等于80%時(shí),表示目標(biāo)沒有被遮擋,采用顏色特征和輪廓特征定位目標(biāo),利用分塊沙包窗核函數(shù)實(shí)現(xiàn)尺寸自適應(yīng);當(dāng)前后幀Bhattacharyya系數(shù)匹配度小于80%時(shí),表示目標(biāo)進(jìn)入遮擋區(qū)域,則利用先驗(yàn)訓(xùn)練分類器和鏡像原理對(duì)遮擋區(qū)域目標(biāo)的位置和尺寸大小進(jìn)行預(yù)測(cè);當(dāng)前后幀Bhattacharyya系數(shù)匹配度再次大于等于80%時(shí),表示目標(biāo)離開遮擋區(qū)域,則轉(zhuǎn)換為Mean Shift跟蹤。當(dāng)目標(biāo)沒有遮擋時(shí),采用顏色特征和輪廓特征定位目標(biāo),利用分塊沙包窗核函數(shù)實(shí)現(xiàn)尺寸自適應(yīng);當(dāng)目標(biāo)進(jìn)入遮擋區(qū)域時(shí),在改進(jìn)的巴氏系數(shù)條件觸發(fā)下(低于設(shè)定閾值),利用先驗(yàn)訓(xùn)練分類器和鏡像原理對(duì)遮擋區(qū)域目標(biāo)的位置和尺寸大小進(jìn)行預(yù)測(cè);當(dāng)目標(biāo)離開遮擋區(qū)域時(shí),再次利用巴氏系數(shù)條件觸發(fā)(高于設(shè)定閾值)【什么】轉(zhuǎn)換為Mean Shift跟蹤實(shí)驗(yàn)結(jié)果表明:所提算法與子區(qū)域分類器的在線Boosting算法和多視角多目標(biāo)協(xié)同追蹤算法相比,在目標(biāo)全遮擋的情況下能更好地跟蹤目標(biāo),提高了跟蹤精度和魯棒性,且滿足實(shí)時(shí)性要求。
關(guān)鍵詞:鏡像; Mean Shift; 全遮擋; 巴氏系數(shù); 目標(biāo)跟蹤; 全遮擋
引言
機(jī)器視覺技術(shù)廣泛應(yīng)用于軍事制導(dǎo)、視頻監(jiān)控、醫(yī)療診斷、產(chǎn)品檢測(cè)等領(lǐng)域[1-3]。而在上述領(lǐng)域中都會(huì)涉及目標(biāo)跟蹤,在跟蹤目標(biāo)的過程中,由于目標(biāo)本身特征的多樣性以及外界環(huán)境的復(fù)雜性,尤其當(dāng)目標(biāo)被自遮擋、物體相互遮擋、背景遮擋時(shí),如何更精確地定位和跟蹤目標(biāo)成為一個(gè)極具挑戰(zhàn)性的課題[4]。Thompson等[5]提出利用光流場(chǎng)來檢測(cè)視頻中的遮擋面,但是沒有涉及如何跟蹤目標(biāo)。Maver等[6]從遮擋的角度出發(fā),研究如何獲得一個(gè)未知場(chǎng)景的3D數(shù)據(jù),利用幾何關(guān)系從先驗(yàn)的紋理信息預(yù)測(cè)出遮擋時(shí)目標(biāo)狀態(tài),但是預(yù)測(cè)狀態(tài)的誤差會(huì)隨著跟蹤的進(jìn)行而逐漸增大,同時(shí)計(jì)算復(fù)雜度高。Zitnick等[7]利用視差圖的方法解決遮擋問題,要求各個(gè)像素點(diǎn)具有唯一性,否則當(dāng)遇到相似目標(biāo)或者背景時(shí)易導(dǎo)致跟蹤失敗。在文獻(xiàn)[8-10]中學(xué)者利用分割理論提取遮擋區(qū)域的目標(biāo)解決目標(biāo)部分遮擋問題,對(duì)全遮擋情況誤差很大,甚至跟蹤失敗。Zhang等[11]通過幀內(nèi)、幀間、跟蹤等級(jí)三個(gè)順序?qū)哟螌?shí)現(xiàn)目標(biāo)遮擋跟蹤; 李沛等[12]提出基于信用度分類遮擋問題解決方法,對(duì)前后幀計(jì)算結(jié)果的連續(xù)性要求較高,否則計(jì)算得到的遮擋目標(biāo)定位精度不高。顏佳等[13]在遮擋環(huán)境下采用在線Boosting的目標(biāo)跟蹤,利用分區(qū)域的特征匹配法剔除被遮擋子區(qū)域?qū)δ繕?biāo)定位的影響,但對(duì)目標(biāo)尺寸發(fā)生變化并且伴有遮擋時(shí)的跟蹤問題沒有提供解決方案。龔衛(wèi)國(guó)等[14]提出一種像素投影算法(Running Average with Selectivily, RAS)背景更新,利用RAS對(duì)遮擋粘連目標(biāo)進(jìn)行分離,采用濾波加Mean Shift 算法,并將其與 Kalman算法結(jié)合,實(shí)現(xiàn)紅外目標(biāo)的實(shí)時(shí)準(zhǔn)確跟蹤,較好地解決了部分遮擋問題。周良毅等[15]提出基于動(dòng)態(tài)遮擋閾值的多視角多目標(biāo)協(xié)作追蹤,引入遮擋變量,改進(jìn)了目標(biāo)遮擋的判決標(biāo)準(zhǔn)和公共平面中的目標(biāo)融合特征,并通過結(jié)合改進(jìn)粒子濾波得到基于遮擋變量的多視角目標(biāo)協(xié)作追蹤算法。
上述目標(biāo)跟蹤算法對(duì)目標(biāo)被自遮擋、物體相互遮擋、背景遮擋時(shí)針對(duì)目標(biāo)部分遮擋跟蹤取得了較好的效果,但仍存在以下不足:1)目標(biāo)在部分遮擋的場(chǎng)景下提出的算法對(duì)目標(biāo)的定位不精確;2)涉及的是目標(biāo)部分遮擋跟蹤,而對(duì)于目標(biāo)在被相似目標(biāo)和背景全遮擋的場(chǎng)景下沒有提供很好的解決方案。
基于以上不足,本文提出一種基于鏡像Mean Shift的目標(biāo)遮擋處理算法。在沒有或者部分遮擋(D(n)≥0.8D(n-1))情況下,融合顏色特征和輪廓特征表述目標(biāo),然后利用沙包核窗函數(shù)和Mean Shift算法對(duì)目標(biāo)進(jìn)行跟蹤,并將每幀的序號(hào)和目標(biāo)的位置信息保存在一個(gè)記憶隊(duì)列中;當(dāng)D(n)<0.8D(n-1)時(shí),表明目標(biāo)處于完全遮擋的情況,記錄當(dāng)前閾值變化幀的序號(hào)(假設(shè)為第m幀),利用先驗(yàn)訓(xùn)練分類器和鏡像原理可以預(yù)測(cè)在遮擋區(qū)域中目標(biāo)第n幀尺寸大小等于第2m-n幀的尺寸大小(已知),遮擋區(qū)域的目標(biāo)到臨界點(diǎn)的距離(第n幀到第m幀的距離)等于目標(biāo)從未遮擋區(qū)域(第2m-n幀)到臨界點(diǎn)(第m幀)的距離,從而可以確定目標(biāo)的位置信息。
一、傳統(tǒng)的Mean Shift目標(biāo)跟蹤算法
1.1顏色特征描述
設(shè)qc={qcu}u=1,2,…,Bc表示目標(biāo)參考顏色直方圖,{xi}i=1,2,…,n為中心位置y的目標(biāo)候選區(qū)域的像素位置,則目標(biāo)候選圖像區(qū)域的顏色加權(quán)直方圖pc={pcu(y)}u=1,2,…,Bc為:
pcu(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](1)
其中:ch為顏色直方圖歸一化常數(shù);u為目標(biāo)特征值;k(・)為下列Epanechnikov核剖面函數(shù):
kE(r)=
1-r,r≤1
0,r>1 (2
對(duì)于離目標(biāo)中心位置越近的像素賦予較大的權(quán)值,對(duì)于遠(yuǎn)離目標(biāo)中心位置的像素賦予較小的權(quán)值;h為核半徑;δ是Epanechnikov函數(shù);bf(・)是將給定位置的像素映射到顏色直方圖相應(yīng)顏色區(qū)間(color bin)的映射函數(shù)。
1.2輪廓特征描述
輪廓作為特征來描述目標(biāo)有一定的優(yōu)勢(shì),輪廓的提取過程比較簡(jiǎn)單,以目標(biāo)的形狀作為先驗(yàn)信息,結(jié)合Bayesian理論來提取目標(biāo)的輪廓,當(dāng)目標(biāo)運(yùn)動(dòng)時(shí)目標(biāo)輪廓所包含的面積變化明顯。如果圖像中某一區(qū)域目標(biāo)靜止,則輪廓所包含的面積變化率很小,圖像的像素落到輪廓直方圖較低的顏色區(qū)間;如果該區(qū)域發(fā)生運(yùn)動(dòng)時(shí),則相應(yīng)的輪廓所包含的面積變化率很大,圖像像素會(huì)落到輪廓直方圖的每個(gè)顏色空間,因此采用均勻分布模型。設(shè)qo={qou}u=1,2,…,Bo表示目標(biāo)參考輪廓直方圖,{xi}i=1,2,…,n為中心位置y的目標(biāo)候選區(qū)域的像素位置,則目標(biāo)候選圖像區(qū)域的輪廓加權(quán)直方圖po={pou(y)}u=1,2,…,Bo為:
pou(y)=ch∑ni=1k(‖(y-xi)/h‖2)δ[bf(xi)-u](3
1.3跟蹤窗的選取和遮擋跟蹤
傳統(tǒng)Mean Shift 跟蹤算法跟蹤窗采用固定尺寸的矩形窗以及利用分割算法和Kalman算法預(yù)測(cè)目標(biāo)在遮擋區(qū)域的狀態(tài)。當(dāng)目標(biāo)尺寸變化時(shí),跟蹤窗包含目標(biāo)特征的同時(shí),也包含更多的背景特征,導(dǎo)致定位不精確、計(jì)算復(fù)雜度高、實(shí)時(shí)性差; Kalman算法對(duì)目標(biāo)的位置和尺寸的預(yù)測(cè),在短時(shí)間跟蹤或者部分遮擋的場(chǎng)景取得不錯(cuò)的效果,但在長(zhǎng)時(shí)間遮擋或者全遮擋的場(chǎng)景下,跟蹤誤差會(huì)逐漸增大,甚至跟蹤失敗,而實(shí)際場(chǎng)景長(zhǎng)時(shí)間全遮擋的場(chǎng)景很常見,所以算法具有一定的局限性,影響跟蹤效果。
二、基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法
在部分遮擋的場(chǎng)景下,采用傳統(tǒng)的Mean Shift目標(biāo)跟蹤算法融合顏色特征和輪廓特征描述目標(biāo)和采用固定尺寸的矩形窗跟蹤目標(biāo),在精度要求不高的情況下可取得不錯(cuò)的跟蹤效果。而在全遮擋和要求精度稍高的情況下,傳統(tǒng)算法具有局限性。因此本文采用一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法來優(yōu)化算法。在部分遮擋和沒有遮擋的情況下,采用改進(jìn)的Bhattacharyya系數(shù)來優(yōu)化傳統(tǒng)的目標(biāo)定位方法,而跟蹤窗采用可自適應(yīng)的沙包窗跟蹤目標(biāo);根據(jù)前后幀Bhattacharyya系數(shù)匹配度是否大于80%判斷目標(biāo)是否遮擋,當(dāng)大于80%說明目標(biāo)是沒有遮擋或者部分遮擋,傳統(tǒng)算法仍然可以跟蹤,否則,根據(jù)記錄的先前序列號(hào)和位置信息利用鏡像原理可以預(yù)測(cè)出目標(biāo)的尺寸大小和位置信息,實(shí)現(xiàn)跟蹤。
2.1Bhattacharyya系數(shù)的選取
Bhattacharyya系數(shù)是衡量目標(biāo)參考模型和候選模型的最大相似度,當(dāng)取得最大相似度時(shí)可以定位目標(biāo),同時(shí)也可以根據(jù)前后兩幀的相似度是否小于80%來判定目標(biāo)是否被完全遮擋,條件成立時(shí)則判定為完全遮擋,跟蹤方式轉(zhuǎn)換為鏡像Mean Shift目標(biāo)跟蹤模式,以便更好地跟蹤目標(biāo)。傳統(tǒng)的Bhattacharyya系數(shù)計(jì)算有根號(hào)運(yùn)算,計(jì)算復(fù)雜度高,本文選取文獻(xiàn)[16]式(4)的度量系數(shù)避免開方運(yùn)算,降低運(yùn)算復(fù)雜度:
(Y)=∑mu=1min (u,u(Y))(4
2.2Mean Shift目標(biāo)搜索
給定目標(biāo)參考顏色直方圖和目標(biāo)上一幀的估計(jì)中心位置0,則目標(biāo)在當(dāng)前幀的位置1可由式(5)目標(biāo)函數(shù)所得到:
D(y)≈λcρ(qc,pc(y))+λoρ(qo,po(y))(5)
其中:0≤λc≤1、 0≤λo≤1分別表示顏色特征和輪廓特征的權(quán)值,且λc+λo=1; ρ(・)表示兩直方圖的Bhattacharyya系數(shù)。將式(1)、(3)、(4)代入式(5)得到式(6):
D(y)=
min Ch∑ni=1(λc+λo)k(‖(y-xi)/h‖2)δ(bf(xi)-u) (6
利用式(7)進(jìn)行Mean Shift迭代,當(dāng)核跟蹤窗口由位置0移到1時(shí),函數(shù)D(y)將會(huì)遞增:
1=∑ni=1xiωig(‖(0-xi)/h‖2)∑ni=1ωig(‖(0-xi)/h‖2)(7)
其中:ωi=min Ch∑ni=1(λc+λo);g(x)=-k′(x)。令0←1,重復(fù)此迭代過程,直到‖1-0‖<ε或達(dá)到預(yù)先指定的迭代次數(shù)為止,ε是預(yù)先給的正數(shù),本文選取ε=0.02。
2.3特征自適應(yīng)融合
已知目標(biāo)當(dāng)前幀位置,設(shè)qc、qo、pcl、pol分別表示顏色直方圖、邊界直方圖、背景區(qū)域顏色直方圖、背景區(qū)域邊界直方圖;ρ(·)是表示兩直方圖的Bhattacharyya系數(shù)。假設(shè)顏色特征和輪廓特征在當(dāng)前幀的權(quán)值為λtc和λto,則顏色特征和輪廓特征下一幀的權(quán)值為:
λt+1c=(1-α)λtc+αρ(qo,pol)ρ(qc,pcl)+ρ(qo,pol)(8
λt+1b=(1-α)λtb+αρ(qc,pcl)ρ(qc,pcl)+ρ(qo,pol)(9)
其中:α為權(quán)值常數(shù),決定權(quán)值更新的速度; ρ(qc,pcl)ρ(qo,pol)表示哪個(gè)特征更準(zhǔn)確定位目標(biāo),當(dāng)比值大于1則說明ρ(qo,pol)輪廓特征能更好區(qū)分目標(biāo),所以用1-ρ(qc,pcl)[ρ(qc,pcl)+ρ(qo,pol)]來反映其在總體特征所占的比例,反之則用顏色特征。
2.4核窗寬自適應(yīng)
目標(biāo)通常不是標(biāo)準(zhǔn)的矩形或者橢圓形狀,常常是橢圓和矩形的復(fù)合體形狀,其形狀如圖1所示,故命名為沙包窗。沙包窗核函數(shù)既能包含特征目標(biāo),也能減少背景特征干擾,更加準(zhǔn)確地描述目標(biāo)。
圖片
圖1沙包窗模型
核窗寬調(diào)整原理如圖2所示。
圖片
圖2窗寬調(diào)整原理
在初始幀手動(dòng)選取目標(biāo)區(qū)域,確定目標(biāo)窗口中心x0及核窗寬h,提取目標(biāo)的邊界最高點(diǎn)x1和最低中心點(diǎn)x2(最好3點(diǎn)在1條垂直線上),并分別計(jì)算x0與x1和x2的距離d1和d2。讀取下一幀,以上一幀窗口的中心為候選目標(biāo)中心進(jìn)行Mean Shift迭代,得到候選目標(biāo)的新跟蹤窗口中心x0′,并根據(jù)分塊區(qū)域跟蹤窗口的Mean Shift迭代得到x1′和x2′,分別計(jì)算d1′和d2′,計(jì)算:
=(d1′/d1+d2′/d2)/2(10
以來調(diào)整窗寬,設(shè)內(nèi)接最大面積矩形的長(zhǎng)為m,寬為n,矩形面積為定值mn=2ab;矩形上下部分的橢圓面積相等為:
s=πab2-an2bb2-n24-ab arcsin1-n24b2 (11
則更新跟蹤窗:
m=・m
n=・n
s=・πab2-an2bb2-n24-ab arcsin1-n24b2(12 2.5全遮擋處理
2.5.1鏡像原理
在空間放置一點(diǎn)電荷q,在其周圍產(chǎn)生磁場(chǎng)E,磁場(chǎng)中距離電荷q的距離為r處的磁場(chǎng)大小為:
E=kqr2(13
在同一線選取距離點(diǎn)電荷q的距離為r1、r2、r3的點(diǎn)分別為a1、b1、c1,而與之同等電勢(shì)(在水平軸)的點(diǎn)有a2、b2、c2其位置關(guān)于點(diǎn)電荷q對(duì)稱,故稱為“鏡像”,原理如圖3所示。
圖片
圖3鏡像原理
2.5.2全遮擋問題處理
當(dāng)目標(biāo)未進(jìn)入遮擋區(qū)域時(shí)根據(jù)顏色特征和輪廓特征定位目標(biāo)以及用沙包核函數(shù)實(shí)現(xiàn)尺寸自適應(yīng);當(dāng)目標(biāo)進(jìn)入遮擋區(qū)域時(shí),在D(n)≥0.8D(n-1)時(shí)說明目標(biāo)沒有遮擋或者是部分遮擋,根據(jù)Mean Shift的魯棒性,仍然可以跟蹤目標(biāo),將當(dāng)前幀的序號(hào)和目標(biāo)的位置信息保存在一個(gè)記憶隊(duì)列中;在D(n)<0.8D(n-1)時(shí)說明目標(biāo)嚴(yán)重遮擋或者是全遮擋,此時(shí)利用鏡像原理預(yù)測(cè)目標(biāo)的位置和尺寸大小,當(dāng)前幀記為第n幀,尺寸大小為:
Cn=C2m-n(14
位置為:
Sn=vT(2m-n)(15)
其中:C為目標(biāo)尺寸大小即跟蹤窗的大小;m是目標(biāo)介于部分遮擋和全遮擋的序列幀數(shù)序號(hào),T為每幀的耗時(shí),假設(shè)目標(biāo)運(yùn)動(dòng)速度恒定為v;當(dāng)D(n)≥0.8D(n-1)時(shí)說明離開遮擋區(qū)域,同樣采用Mean Shift算法跟蹤。跟蹤原理如圖4所示。
分區(qū)
圖片
圖4跟蹤原理
三、算法步驟
基于上述分析,基于鏡像Mean Shift的目標(biāo)遮擋處理算法如下:
手動(dòng)選取目標(biāo)區(qū)域,給定參考顏色直方圖qc和參考邊界直方圖qo,初始權(quán)值λc=λo=0.5,目標(biāo)在上一幀的位置0,確定目標(biāo)跟蹤窗口中心位置x0、邊界最高點(diǎn)x1和邊界最低中心點(diǎn)x2,攝像頭點(diǎn)與道路做垂直焦點(diǎn)記為0點(diǎn),目標(biāo)速度恒為v。
1)計(jì)算d1、d2。
2)以0為初始位置,計(jì)算pc(0)和po(0)(根據(jù)式(1)和式(3))。
3)計(jì)算D(0)(根據(jù)式(4)、(5)目標(biāo)更新位置1(根據(jù)式(7))。
4)計(jì)算pc(1), po(1)和D(1)。
5)若0.8D(0) 6)若‖1-0‖<ε(ε一般取10-5),則停止;否則0←1返回步驟2)。
7)更新權(quán)值λc和λo(根據(jù)式(8)、(9))。
8)計(jì)算d1′和d2′。
9)更新a、b、s(根據(jù)式(12)),返回步驟1)依次跟蹤下去。
10)將每一幀的序號(hào)和目標(biāo)的位置信息尺寸大小保存在一個(gè)記憶隊(duì)列中,記垂直點(diǎn)處為m幀。
11)預(yù)測(cè)出目標(biāo)的位置和尺寸大小(根據(jù)式(14)、(15)),返回步驟1)依次跟蹤下去。
四、實(shí)驗(yàn)結(jié)果與分析
為了驗(yàn)證本文算法,實(shí)驗(yàn)均在Intel Core i33220 3.3GHz CPU、 3.22GB內(nèi)存的電腦上采用Matlab 2012環(huán)境下進(jìn)行了仿真實(shí)驗(yàn),其中實(shí)驗(yàn)視頻來自實(shí)際拍攝的車輛目標(biāo)測(cè)試視頻,序列分辨率為640×480。圖5~7分別是目標(biāo)進(jìn)入?yún)^(qū)域未遮擋或者部分遮擋、進(jìn)入全遮擋區(qū)域、離開遮擋區(qū)域場(chǎng)景情況下,文獻(xiàn)[13]、文獻(xiàn)[15]和本文算法實(shí)驗(yàn)對(duì)比結(jié)果,從圖中可以看出,本文算法定位更精確。表1是3種算法的成功跟蹤率和每幀平均耗時(shí)的實(shí)驗(yàn)結(jié)果,驗(yàn)證算法的實(shí)時(shí)性。其中成功跟蹤率=全遮擋序列成功跟蹤的幀數(shù)/全遮擋序列總幀數(shù),當(dāng)目標(biāo)預(yù)測(cè)的位置與實(shí)際的目標(biāo)位置差距小于一個(gè)車身長(zhǎng)度則認(rèn)為跟蹤成功(約120個(gè)像素),否則跟蹤失敗。
根據(jù)圖5可以看出文獻(xiàn)[13]、文獻(xiàn)[15]和本文的算法都可以在未遮擋區(qū)域跟蹤車輛目標(biāo)。文獻(xiàn)[13]采用背景差分法檢測(cè)目標(biāo)和矩形核窗函數(shù)跟蹤目標(biāo);文獻(xiàn)[15]采用HSV顏色特征檢測(cè)目標(biāo)和矩形核窗函數(shù)跟蹤目標(biāo);本文采用融合顏色特征和輪廓特征精確定位目標(biāo)和沙包核窗函數(shù)。在目標(biāo)的顏色和背景的顏色相似度不高的場(chǎng)景下,顏色特征和背景差分法都能很好地檢測(cè)目標(biāo),但矩形核窗函數(shù)在包含目標(biāo)特征的同時(shí)包含了更多的背景特征,使得計(jì)算復(fù)雜度高,計(jì)算時(shí)間長(zhǎng)。而本文提出的沙包核窗函數(shù)在包含了目標(biāo)特征的同時(shí)減少了背景特征的影響,計(jì)算復(fù)雜度低,實(shí)時(shí)性更好。
從圖6和表1可以看出3種算法大體都能對(duì)全遮擋目標(biāo)實(shí)現(xiàn)跟蹤。因?yàn)檫M(jìn)入全遮擋區(qū)域,文獻(xiàn)[13]、[15]利用Kalman算法對(duì)遮擋目標(biāo)進(jìn)行運(yùn)動(dòng)位置預(yù)測(cè)和估計(jì)可實(shí)現(xiàn)較為魯棒的跟蹤,剛開始的誤差小,但是預(yù)測(cè)的結(jié)果會(huì)影響下一幀的目標(biāo)位置和尺寸的大小,隨著跟蹤的推進(jìn)誤差逐漸增大,后遮擋區(qū)域目標(biāo)位置的預(yù)測(cè)和估計(jì)就容易失敗。而本文算法利用位置鏡像原理,根據(jù)目標(biāo)運(yùn)動(dòng)時(shí)間確定位置和尺寸大小,與前后幀的位置和尺寸大小無關(guān),僅與目標(biāo)運(yùn)動(dòng)的時(shí)間相關(guān),故誤差不會(huì)累積,所以誤差小。
通過表1可以看出本文算法比文獻(xiàn) [13]和文獻(xiàn)[15]算法跟蹤成功率分別提高了1.6%、11%;同時(shí)每幀平均耗時(shí)24ms,滿足實(shí)時(shí)性要求。
根據(jù)圖7可以看出,文獻(xiàn)[13]、[15]和本文算法都可以在離開遮擋區(qū)域時(shí)跟蹤車輛目標(biāo)。當(dāng)目標(biāo)離開遮擋區(qū)域時(shí),目標(biāo)顏色和背景的顏色區(qū)分度很大,根據(jù)顏色特征和背景差分法以及本文算法融合顏色特征和輪廓特征都可以準(zhǔn)確地重新定位目標(biāo),依次跟蹤下去。
文獻(xiàn)[13]、[15]提出的算法利用顏色特征和背景差分法定位目標(biāo),結(jié)合Mean Shift算法在沒有遮擋或者部分遮擋的情況下能準(zhǔn)確地跟蹤目標(biāo);而在全遮擋的情況下,利用Kalman算法預(yù)測(cè)目標(biāo)的位置,隨著跟蹤的推進(jìn)會(huì)產(chǎn)生誤差累積,導(dǎo)致跟蹤成功率下降。本文算法在沒有遮擋或者部分遮擋的情況下,利用顏色特征和輪廓特征可以精確定位目標(biāo);在全遮擋的情況下利用鏡像原理可以精確地預(yù)測(cè)目標(biāo)的位置和尺寸大小,提高了跟蹤效果,滿足實(shí)時(shí)性要求。
五、結(jié)語(yǔ)
本文提出一種基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法,利用先驗(yàn)訓(xùn)練分類器和鏡像原理較好地解決了目標(biāo)在完全遮擋場(chǎng)景下的目標(biāo)跟蹤問題。但是,本文算法是基于目標(biāo)的運(yùn)動(dòng)速度是恒定的前提,而實(shí)際中跟蹤的目標(biāo)速度是多變的,如何準(zhǔn)確跟蹤速度多變的目標(biāo)是下一步工作的研究重點(diǎn)。
參考文獻(xiàn):
[1] CAO Y, JIN S, FAN Y. Research on detection and tracking system of near space vehicle based on STK/Matlab[J].Journal of System Simulation, 2014,26(5):1058-1063.(曹運(yùn)合,靳松陽(yáng),樊友友.基于STK/Matlab的臨近空間飛行器檢測(cè)跟蹤系統(tǒng)研究[J]. 系統(tǒng)仿真學(xué)報(bào),2014,26(5):1058-1063.)
[2] SANG H, WU D, WANG H. Face tracking and recognition system for video surveillance[J]. Computer Engineering and Applications, 2014, 50(12): 175-179.(桑海峰,吳丹陽(yáng),王會(huì).視頻監(jiān)控下的人臉跟蹤與識(shí)別系統(tǒng)[J].計(jì)算機(jī)工程與應(yīng)用,2014,50(12):175-179.)
[3] LI W, CHENG L. New progress of fabric defect detection based on computer vision and image processing[J].Journal of Textile Research,2014,35(3):158-164.(李文羽,程隆棣.基于機(jī)器視覺和圖像處理的織物疵點(diǎn)檢測(cè)研究新進(jìn)展[J]. 紡織學(xué)報(bào),2014,35(3):158-164.)
[4] XUE C, ZHU M, LIU C. Review of tracking algorithms under occlusion[J].Chinese Journal of Optics and Applied Optics,2009, 2(5):388-394.(薛陳,朱明,劉春香.遮擋情況下目標(biāo)跟蹤算法綜述[J]. 中國(guó)光學(xué)與應(yīng)用光學(xué),2009,2(5):388-394.)
[5] THOMPSON W B, MUTCH K M, BERZINS V A. Dynamic occlusion analysis in optical flow fields[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1985, 7(4):374-383.
[6] MAVER J, BAJCSY R. Occlusions as a guide for planning the next view[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1993, 15(5):417-433.
[7] ZITNICK C L, KANADE T. A cooperative algorithm for stereo matching and occlusion detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(7): 675-684.
[8] PANG C C C, LAM W W L, YUNG N H C. A novel method for resolving vehicle occlusion in a monocular trafficimage sequence[J]. IEEE Transactions on Intelligent Transportation Systems,2004,5(3):129-141.
[9] GENTILE C,CAMPS O,SZNAIER M. Segmentation for robust tracking in the presence of severe occlusion[C]// Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE,2004,132: 483-489.
[10] ZHANG Y, XU H. Fragment tracking under occluded target[J].Journal of Image and Graphics, 2014, 19(1):92-100.(張彥超,許宏麗.遮擋目標(biāo)的分片跟蹤處理[J]. 中國(guó)圖象圖形學(xué)報(bào),2014,19(1):92-100.)
[11] ZHANG W, WU Q, YANG X, et al. Multilevel framework to detect and handle vehicle occlusion[J]. IEEE Transactions on Intelligent Transportation Systems,2008, 9(1):161-174.
[12] LI P, LUO W, LI G, et al. Using credit coefficients to solve occlusion problems in the stereo vision[J].OpticsElectronic Engineering, 2008, 35(12): 89-95. (李沛,羅武勝,李冠章,等.基于信用度分類遮擋問題解決方法[J].光電工程,2008,35(12):89-95.)
[13] YAN J, WU M. Online Boosting based target tracking under occlusion[J].Optics and Precision Engineering,2012, 20(2): 439-446.(顏佳,吳敏淵.遮擋環(huán)境下采用在線Boosting的目標(biāo)跟蹤[J]. 光學(xué)精密工程,2012,20(2):439-446.)
[14] GONG W, WANG X, LI Z. Antiocclusion detection and tracking algorithm for multiple for infrared targets[J]. Chinese Journal of Scientific Instrument,2014, 35(3):535-542.(龔衛(wèi)國(guó),王旭,李正浩.一種抗遮擋的紅外多目標(biāo)實(shí)時(shí)檢測(cè)跟蹤算法[J].儀器儀表學(xué)報(bào),2014,35(3):535-542.)
[15] ZHOU L, WANG Z, WANG Y. Multiview cooperative tracking of multiple mobile object based on dynamic occlusion threshold[J].Journal of Research and Development,2014, 51(4):813-823.(周良毅,王智,王營(yíng)冠.基于動(dòng)態(tài)遮擋閾值的多視角多目標(biāo)協(xié)作追蹤[J].計(jì)算機(jī)研究與發(fā)展,2014,51(4):813-823.)
[16] DI N, ZHU M. An algorithm for realtime tracking target in complex environment[J].Journal of Image and Graphics,2008, 13(9):1758-1765.(邸男,朱明.一種復(fù)雜背景下的實(shí)時(shí)目標(biāo)跟蹤算法[J].中國(guó)圖象圖形學(xué)報(bào),2008,13(9):1758-1765.)
【基于鏡像Mean Shift的遮擋目標(biāo)跟蹤算法】相關(guān)文章:
基于貨物當(dāng)前狀態(tài)全程跟蹤的調(diào)度算法03-07
基于序貫蒙特卡羅算法的MIMO信道跟蹤11-22
基于粒子群算法的鏡像閾值層疊濾波器的優(yōu)化設(shè)計(jì)03-07
基于DirectShow與粒子濾波器的人體運(yùn)動(dòng)目標(biāo)跟蹤03-07
基于DSP的信道譯碼算法優(yōu)化03-19
基于階梯細(xì)化的圖像放大算法03-07
基于遺傳算法的OD分布03-21
基于ICA的魯棒圖像水印算法11-22