新聞資訊
Core business
行業資訊
<< 返回
AI,人臉識别背後的推進者?
發表于    2019-08-03 02:06:52
AI,人臉識别背後的推進者?

谷歌近日發布了一款專為移動GPU推理量身定制的輕量級人臉檢測器——亞毫秒級的人臉檢測算法Blaze Face。它能夠在旗艦設備上以200-1000+fps的速度運行,并且可以應用在諸多需要快速準确的識别出人臉區域的任務中,例如:2D/3D面部關鍵點識别與幾何評估、面部特征和表情分類以及面部區域分割等。

當提及“人臉識别技術”的時候,想必大家都不會覺得陌生。“人臉識别技術”自從二十世紀六十年代後期研發,再到九十世紀逐步進入市場,技術的準确率逐步達到了99%的高精準度,有的人臉識别軟件在國際标準的LFW數據庫中甚至取得了99.15%的準确率,已然反超了人眼的辨認能力。也正因此,各行各業都将人臉識别納入到了未來的規劃前景中,尤其是AI領域的企業,例如曠視科技,依圖科技,極鍊科技等公司,紛紛對此躍躍欲試。

在人臉識别技術發展初期,一個典型的基于視頻圖像的人臉識别系統一般都是自動檢測人臉區域,從視頻中提取特征,最後如果人臉存在則識别出人臉的身份。在視頻監控、信息安全和出入控制等應用中,基于視頻的人臉識别是一個非常重要的問題,也是目前人臉識别的一個熱點和難點。基于視頻比基于靜态圖像更具優越性,因為Bruce和Knight等人已證明,當人臉被求反或倒轉時,運動信息有助于人臉的識别。雖然視頻人臉識别是基于靜态圖像的人臉識别的直接擴展,但一般認為視頻人臉識别算法需要同時用到空間和時間信息,這類方法直到近幾年才開始受到重視并需要進一步的研究和發展。

目前視頻人臉識别還有很多的困難與挑戰,具體來說一是視頻圖像質量比較差:視頻圖像一般是在戶外(或室内,但是采集條件比較差)獲取的,通常沒有用戶的配合,所以視頻人臉圖像經常會有很大的光照和姿态變化,還可能會有遮擋和僞裝。

二是人臉圖像比較小:同樣,由于采集條件比較差,視頻人臉圖像一般會比基于靜态圖像的人臉識别系統的預設尺寸小。小尺寸的圖像不但會影響識别算法的性能,而且還會影響人臉檢測,分割和關鍵點定位的精度,這必然會導緻整個人臉識别系統性能的下降。

在這種情況下,提升系統識别的精度與準确度顯然成為了人臉識别領域的當務之急。如何利用AI有效的推動人臉識别的發展,成為了人工智能視覺與圖像領域中的重點應用。

AI,人臉識别背後的推進者?

比如視頻AI領域的獨角獸極鍊科技,便提出了以四模塊來對場景中的人臉進行識别:

模塊一:視頻結構化,将視頻用鏡頭分割

在這一環節中,通常采用全局特征和局部特征相結合的方法。全局特征檢測全局顔色的分布突變,然後借用局部特征獲得的人臉識别的跟蹤結果、跟蹤軌迹的斷續來判斷視頻是否具有鏡頭切換。跟蹤來判斷鏡頭切換有一個很大的優點,因為後續的步驟也會采用相似的算法,所以這一步驟所需的算法是可以重複使用的。

模塊二:人臉軌迹提取

完成了鏡頭分割以後,就可以分割好的單一鏡頭裡進行人臉軌迹提取。在軌迹提取的算法上,同樣要考慮準确率和速度的指标。要實現速度和準确率的平衡,可以有以下兩種途徑:一是間隔采樣or逐幀處理,二是檢測&跟蹤的配合。

模塊三:人臉識别

有了人臉軌迹之後,就可以開始進行人臉的識别了。但是在将人臉數據輸入深度網絡之前,還需要對其進行必要的變換和處理。其中一部分變換在針對人臉這一部分非常重要,尤其是在消費級視頻裡,那就是人臉的對齊。人臉對齊是利用人臉的特征點檢測定位,将各種姿勢的人臉圖像還原矯正為正臉的過程。在算法框架中,需要加入人臉質量評估的算法,以過濾低質量的人臉圖片,保證人臉數據的準确率。

在樣本足夠的前提下,可以利用訓練得到的模型對人臉樣本進行特征提取。測試的時候,在視頻中檢測得的人臉後,将其輸入到生成的特征向量裡,與人臉互動的特征向量進行匹配,從而找到在特征空間中最接近的一個樣本。

模塊四:識别結果融合

以上提到的人臉識别都是針對單幀識别的圖片而言的,之前說到的系統識别結果都是針對整個人臉軌迹而言。因此,最後需要将人臉識别的結果與整條人臉軌迹融合起來,得到整個軌迹的識别結果。

識别結果的融合策略也有很多。簡單的有投票策略,即将尾幀的識别結果是為一票,識别結果票數最高者則為軌迹的最終識别結果。也有用神經網絡來實現這一融合,可以訓練一個時間維度上的神經,将每一幀識别出的特征向量作為網絡的輸入,經過在時間維度上的一系列的參數變換得到最終的特征向量。

如果說AI是時代的浪潮,那人臉識别就是乘風破浪的小舟。在這個“刷臉”從調侃變為現實的今天,借着人工智能的發展,人臉識别可以擁有更高的精度,更強的識别,以及一個更寬廣的未來。






版權申明:本内容來自于互聯網,本文的版權歸原作者所有,文章言論不代表飛旭軟件的觀點,飛旭軟件不承擔任何法律責任。如有侵權請聯系QQ:958289320進行反饋。