精品欧美无遮挡一区二区三区在线观看,中文字幕一区二区日韩欧美,久久久久国色αv免费观看,亚洲熟女乱综合一区二区三区

        ? 首頁 ? 理論教育 ?步態(tài)識別技術(shù)

        步態(tài)識別技術(shù)

        時(shí)間:2023-02-09 理論教育 版權(quán)反饋
        【摘要】:近年來,在步態(tài)識別領(lǐng)域已有很多嘗試性工作?;诓綉B(tài)的身份識別很大程度上依賴于人體形狀隨著時(shí)間的變化過程。針對過去提取關(guān)節(jié)點(diǎn)采取感應(yīng)標(biāo)簽等具有很高計(jì)算代價(jià)的方法,采用細(xì)化的辦法提取腳踝點(diǎn)并采用軌跡特征來識別的算法:首先,根據(jù)背景減除的方法進(jìn)行運(yùn)動區(qū)域分割,在經(jīng)過背景提取以及差分二值化后,可以把運(yùn)動區(qū)域提取出來;然后,通過跟蹤腳踝提取出其運(yùn)動軌跡,并從運(yùn)動軌跡中獲取表示步態(tài)的特征。

        5.5.2 步態(tài)識別技術(shù)

        1.步態(tài)識別技術(shù)算法

        目前,已研究出的步態(tài)識別的軟件算法有如下幾種:

        ①基于主元分析的免于模型的二維步態(tài)識別算法;

        ②基于統(tǒng)計(jì)形狀分析的步態(tài)識別算法;

        ③基于時(shí)空輪廓分析的步態(tài)識別算法;

        ④基于模型的步態(tài)識別算法;

        ⑤基于Hough變換的步態(tài)特征提取的步態(tài)識別算法;

        ⑥基于三維小波矩理論的步態(tài)識別算法。

        此外,有人在基于“人體生物特征不僅包含靜態(tài)外觀信息,也包含行走運(yùn)動的動態(tài)信息”的思想,提出了一種判決級上融合人體靜態(tài)和動態(tài)特征的身份識別方法。利用此方法在不同融合規(guī)則下的實(shí)驗(yàn)結(jié)果表明,融合后的識別性能均優(yōu)于使用任何單一模態(tài)下的識別性能。

        2.基于踝關(guān)節(jié)軌跡的身份識別算法

        近年來,在步態(tài)識別領(lǐng)域已有很多嘗試性工作。采用關(guān)節(jié)點(diǎn)軌跡和角度識別的嘗試取得了令人鼓舞的成果。其中,Taylor等人使用人身體的運(yùn)動規(guī)律性和一些約束來識別人行走和非行走狀態(tài);Chew Yean用兩個(gè)連接鐘擺建立腿部的運(yùn)動模型,從鐘擺傾斜角度的曲線中提取某些頻率分量作為步態(tài)特征進(jìn)行識別;Aaron采用感應(yīng)標(biāo)簽的辦法獲取身體關(guān)節(jié)的運(yùn)動軌跡來達(dá)到識別目的。

        基于步態(tài)的身份識別很大程度上依賴于人體形狀隨著時(shí)間的變化過程。故可將步態(tài)序列看作由一組靜態(tài)姿勢所組成的模式,然后在識別過程中引入這些觀察姿勢隨時(shí)間變化的信息。針對過去提取關(guān)節(jié)點(diǎn)采取感應(yīng)標(biāo)簽等具有很高計(jì)算代價(jià)的方法,采用細(xì)化的辦法提取腳踝點(diǎn)并采用軌跡特征來識別的算法:首先,根據(jù)背景減除的方法進(jìn)行運(yùn)動區(qū)域分割,在經(jīng)過背景提取以及差分二值化后,可以把運(yùn)動區(qū)域提取出來;然后,通過跟蹤腳踝提取出其運(yùn)動軌跡,并從運(yùn)動軌跡中獲取表示步態(tài)的特征。訓(xùn)練過程中使用簡單的方法提取出速度場和路徑場;針對行走過程中兩腳重合時(shí)跟蹤不到腳踝的情況,采用插值算法估計(jì)腳踝的位置;在識別過程中將序列的軌跡參數(shù)作為步態(tài)特征進(jìn)行分類。

        (1)特征提取。

        ①背景提取。采用背景減除的方法進(jìn)行運(yùn)動區(qū)域分割,首先必須從圖像序列中恢復(fù)背景圖像,考慮到視頻處理的實(shí)時(shí)性,本書中使用一種復(fù)雜度較低的方法提取背景。令{Ik,k=1,2,3,…,N}代表一個(gè)包含N幀圖像的視頻,則背景圖像B可用下面迭代的方法獲得:

        B=αIk+βB(k=2,3,4,…,N)其中,參數(shù)α+β=1,初始化時(shí)B=I1

        ②差分及二值化。為把前景從背景中分割開來,使用下述函數(shù)來間接執(zhí)行差分操作:

        img134

        其中0≤f(a,b)〈1,0≤a(x,y),b(x,y)≤255,a(x,y)與b(x,y)分別是當(dāng)前圖像和背景圖像在像素(x,y)處的亮度值。對于每幅圖像I(x,y),通過二值化提取函數(shù)來獲取當(dāng)前圖像中的變化像素。

        ③運(yùn)動目標(biāo)檢測。二值化后提取的運(yùn)動區(qū)域可能會出現(xiàn)空洞和噪聲點(diǎn),用圖像形態(tài)學(xué)的方法可以去除它們的影響。然后,通過執(zhí)行單連通分量分析就可以得到單連通的運(yùn)動目標(biāo)。由于邊界對本書中采用細(xì)化算法來尋找腳踝的方法比較敏感,所以采取邊界平滑的算法進(jìn)一步調(diào)整前景區(qū)。在經(jīng)過背景提取以及差分二值化后,就可以把運(yùn)動區(qū)域提取出來。步態(tài)檢測中對運(yùn)動目標(biāo)提取與檢測的示例如圖5-18所示,圖中分別是背景、行人和提取出來的行人區(qū)域。

        img135

        圖5-18 運(yùn)動目標(biāo)提取與檢測示意

        ④腳踝提取。針對腳踝處于彎曲部位的特征,采用細(xì)化算法,找到細(xì)化之后的曲線交叉點(diǎn)即近似等于腳踝的位置。為了降低細(xì)化算法的復(fù)雜度,先找到腳的大體位置,步驟如下:

        · 求重心:

        img136

        其中,(Xc,Yc)是重心的坐標(biāo),Nt是前景區(qū)像素總數(shù),(xi,yi)是前景區(qū)像素點(diǎn)。

        · 減小搜索區(qū)的范圍:

        只保留要跟蹤的腳踝所在的一側(cè)和重心以下位置。

        · 細(xì)化:

        對圖像序列用生態(tài)學(xué)方法進(jìn)一步平滑邊界,填充空洞、去除噪聲并細(xì)化圖像。

        · 搜索腳踝點(diǎn):

        搜索細(xì)化后曲線上出現(xiàn)的交叉點(diǎn)可近似得到腳踝的坐標(biāo)p(x,y)。

        在經(jīng)過以上四個(gè)步驟之后,就可以得到腳踝的位置坐標(biāo)。圖5-19是腳踝跟蹤示意圖,從左向右依次為:(a)腳的大概位置;(b)細(xì)化后的骨架;(c)跟蹤到的腳踝點(diǎn)。該方法對鞋子的影響具有魯棒性,原因是鞋子對腳踝彎曲部位的影響不大。

        img137

        圖5-19 腳踝跟蹤示圖

        ⑤腳踝軌跡的形成。提取序列一個(gè)周期中的每一幅圖像腳踝的位置坐標(biāo)Pi(x,y)。為了便于軌跡的描述和特征向量的提取,本書采用以下方法。令:

        img138

        N是某個(gè)序列的幀數(shù),P(i)x是序列中第i幅圖像的x坐標(biāo)(注:坐標(biāo)系選取圖像的左上角為原點(diǎn),x軸向下,y軸向右)。

        D(i)x=-(P(i)x-MN)

        D(i)x是序列中第i幅圖像的x坐標(biāo)相對于均值的偏移。這樣就得到了腳踝點(diǎn)運(yùn)動的幅度。為了消除圖像尺度、信號長度對訓(xùn)練和識別過程的影響,本書使用L-泛數(shù)方法對D(i)x和P(i)y進(jìn)行幅度上的歸一化。

        img139

        其中,是取絕對值??紤]到軌跡的特征,進(jìn)一步從步態(tài)周期中確定適合所有個(gè)體的軌跡起始點(diǎn)和結(jié)束點(diǎn)。分別從上述曲線的起始點(diǎn)和終止點(diǎn)搜索x方向變化幅度最大的第一點(diǎn)。

        img140

        dsx是曲線上升最快的第一點(diǎn)的x坐標(biāo),dex是曲線反向上升最快的第一點(diǎn),N是一個(gè)步態(tài)周期序列的樣本個(gè)數(shù)。這樣就得到了歸一化后一個(gè)周期的兩個(gè)向量:

        img141

        ⑥步態(tài)特征的表示。確定行人內(nèi)在運(yùn)動的一個(gè)重要線索是人體部分的運(yùn)動。人的腳踝軌跡體現(xiàn)了個(gè)體的差異,它可以用速度場和路徑距離表示。

        速度場S

        img142

        d代表求導(dǎo)。速度場反映腳踝運(yùn)動的時(shí)空特性。求得速度場的模,即速度距Sm。

        img143

        路徑距L

        img144

        其中,M=dex-dsx+1。路徑的距離可以用于度量路徑的一致性。這樣就得到了作為識別的兩個(gè)度量Sm和L。它們從時(shí)空方面反映腳踝的運(yùn)動軌跡,則C=[Sm,L]可作為最終的步態(tài)特征。

        (2)識別。

        ①相似性度量。由于步態(tài)是時(shí)空運(yùn)動,故期望使用時(shí)空相關(guān)來更好地捕捉它的空間結(jié)構(gòu)特性及時(shí)間平移特性。對于任意兩個(gè)步態(tài)序列要確定其周期,并從步態(tài)序列中提取出完整的步態(tài)周期,就需要找到每個(gè)人的視頻序列中高寬比最大兩幀圖像作為大致周期。在該大致周期中選擇腳踝上升幅度最大的第一點(diǎn)作為周期起始點(diǎn),并從該周期的反方向選擇上升幅度最大的第一點(diǎn)作為周期的終止點(diǎn),這兩個(gè)點(diǎn)之間作為精確周期。腳踝點(diǎn)在兩腳重疊時(shí)不能從圖像上直接得到,可以用插值的辦法取得近似的腳踝點(diǎn)。

        ②分類器??刹捎梅菂?shù)的方法設(shè)計(jì)分類器。最近鄰規(guī)則(NN)分類器就是一種比較容易實(shí)現(xiàn)的分類器,但不是最有效的,因而只用它來測試步態(tài)特征的可分性。NN分類器使用歐氏距離作為相似性測度。其歐氏距離的定義為:

        img145

        其中,Smc和Lc是測試樣本,Sme和Le是數(shù)據(jù)庫中的參考訓(xùn)練樣本。

        (3)實(shí)驗(yàn)。

        ①識別性能。本節(jié)采用中科院自動化所提供的NLPR數(shù)據(jù)庫。它包含20個(gè)人,每人3個(gè)視角(側(cè)面視角0°,傾斜視角45°,正面視角90°),每視角4個(gè)序列,共240個(gè)步態(tài)序列。本實(shí)驗(yàn)選取這20個(gè)人,并使用側(cè)面視角。在該數(shù)據(jù)庫上已作了大量的計(jì)算機(jī)仿真,全面測試了算法的識別性能和校驗(yàn)性能,獲得了大量的仿真數(shù)據(jù)。通過使用留一校驗(yàn)(Leave-one-out Cross Validation)的方法,得出了0°視角下k=2,5,10,20算法的正確分類率CCR(Correct Classification Rate)

        ②校驗(yàn)性能。借用了臉部識別算法中用到的一種分類性能度量ROS(Rank Order Statistic)來評估算法的性能,該方法在FERET評估協(xié)議中首先被提到。使用最近鄰分類器時(shí)算法的累積匹配分值圖。

        同時(shí)使用留一規(guī)則估計(jì)了算法的錯誤接受率FAR(False Acceptance Rate)和錯誤拒絕率FRR(False Reject Rate)。圖5-20給出了算法在使用最近鄰分類器NN的情況下的ROC(Receiver Operating Characteris)曲線。

        img146

        圖5-20 基于FERET協(xié)議的ROS曲線

        錯誤接受是指將冒充者識別為真正的生物特征擁有者;錯誤拒絕是指生物特征擁有者被拒絕。對于理想的算法來說,這兩個(gè)錯誤率均為0。但實(shí)際中,這兩個(gè)指標(biāo)是相關(guān)的,當(dāng)錯誤拒絕率較低時(shí),錯誤接受率會較高;反之亦然。因此往往需要在兩個(gè)錯誤率之間折中選取。用ROC曲線能夠很好地反映兩個(gè)錯誤率之間的關(guān)系,如圖5-21所示。曲線上的點(diǎn)表示在某個(gè)給定的閾值下得到的錯誤拒絕率和錯誤接受率。從圖中可以看到側(cè)面0°視角的等錯誤率EER(Equal Error Rate)為17%。

        img147

        圖5-21 基于NN分類器的ROC曲線

        ③結(jié)果分析。使用速度距和路徑距的識別辦法可以有效避免某一幀丟失或是某一幀腳踝提取不好對識別結(jié)果的影響。但是基于NN分類器的等錯誤率EER為17%不是很理想。其中速度場的范數(shù)會累加誤差,一定程度上加大了總的時(shí)空匹配誤差。而軌跡距離卻可以克服部分軌跡點(diǎn)上的波動,從而取得好的識別效果。

        免責(zé)聲明:以上內(nèi)容源自網(wǎng)絡(luò),版權(quán)歸原作者所有,如有侵犯您的原創(chuàng)版權(quán)請告知,我們將盡快刪除相關(guān)內(nèi)容。

        我要反饋