亚洲爆乳中文字幕无码专区网站-黄页网站视频-暖暖 免费 高清 日本 在线-97亚洲熟妇自偷自拍另类图片-国产av久久久久精东av

EN

CVPR20203篇論文入選,人臉防偽檢測(cè)挑戰(zhàn)賽獲冠亞軍

2020-04-22

今年,人臉防偽、人臉識(shí)別依然是全球計(jì)算機(jī)視覺頂級(jí)會(huì)議CVPR2020(即IEEE國(guó)際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議)的熱門主題,數(shù)篇論文被收錄,其中,明略科技集團(tuán)明略科學(xué)院與中科院自動(dòng)化研究所、奧盧大學(xué)、AIBEE等合作的3篇論文被接收(兩篇為Oral)。

在CVPR2020 ,由中科院自動(dòng)化研究所模式識(shí)別國(guó)家重點(diǎn)實(shí)驗(yàn)室主辦的ChaLearnFace Anti-spoofing Attack Detection Challenge人臉防偽檢測(cè)挑戰(zhàn)賽上,由奧盧大學(xué)與明略科學(xué)院深度學(xué)習(xí)實(shí)驗(yàn)室等組成的團(tuán)隊(duì),斬獲多模態(tài)賽道冠軍和單模態(tài)賽道亞軍。人臉防偽是、活體檢測(cè)是人臉識(shí)別應(yīng)用中最重要的一環(huán),人臉防偽的方法能夠抵御不法分子通過照片、面具等手段對(duì)人臉識(shí)別系統(tǒng)進(jìn)行攻擊從而牟利,是一項(xiàng)非常有落地實(shí)用價(jià)值的研究領(lǐng)域。而ChaLearn Face Anti-spoofing Attack Detection Challenge是近年來活體檢測(cè)、人臉防偽領(lǐng)域最熱門的比賽,吸引了眾多全球知名CV大廠、明星創(chuàng)業(yè)公司和頂級(jí)院校團(tuán)隊(duì)參與。

此次挑戰(zhàn)賽中,奧盧大學(xué)和明略科學(xué)院團(tuán)隊(duì)運(yùn)用的方法,主要來自于以下兩篇論文的研究成果:

《Searching CentralDifference Convolutional Networks for Face Anti-spoofing(CDCN), CVPR2020》(文章鏈接:https://arxiv.org/abs/2003.04092

《Deep Spatial Gradient and Temporal Depth Learning forFace Anti-spoofing(FAS-SGTD), CVPR2020 (Oral)》(文章鏈接:https://arxiv.org/abs/2003.08061

CVPR20203篇論文入選,人臉防偽檢測(cè)挑戰(zhàn)賽獲冠亞軍

人臉防偽(FAS)在人臉識(shí)別系統(tǒng)中起著至關(guān)重要的作用。大多數(shù)最先進(jìn)的FAS方法依賴于堆疊卷積和專家設(shè)計(jì)的網(wǎng)絡(luò),在描述詳細(xì)的紋理信息方面比較弱,在環(huán)境變化(如不同的光照度)時(shí)容易失效,并且傾向于使用長(zhǎng)序列作為輸入來提取動(dòng)態(tài)特征,這使得該方法很難部署到需要快速響應(yīng)的場(chǎng)景中。

《Searching Central Difference Convolutional Networks forFace Anti-spoofing(CDCN [1]), CVPR2020》論文,提出了一種基于中心差分卷積(CDC)的新型幀級(jí)FAS方法,它能夠通過聚合強(qiáng)度和梯度信息來捕獲內(nèi)在的詳細(xì)模式。用CDC構(gòu)建的網(wǎng)絡(luò),稱為中心差分卷積網(wǎng)絡(luò)(CDCN),相較于用普通卷積構(gòu)建的網(wǎng)絡(luò),能夠提供更穩(wěn)健的建模能力。

此外,在一個(gè)專門設(shè)計(jì)的CDC搜索空間上,可利用神經(jīng)結(jié)構(gòu)搜索(NAS)發(fā)現(xiàn)更強(qiáng)大的網(wǎng)絡(luò)結(jié)構(gòu)(CDCN++),該網(wǎng)絡(luò)結(jié)構(gòu)可與多尺度注意力融合模塊(MAFM)組裝,進(jìn)一步提升性能。在6個(gè)基準(zhǔn)數(shù)據(jù)集上進(jìn)行了綜合實(shí)驗(yàn),結(jié)果表明:1)所提出的方法不僅在數(shù)據(jù)集內(nèi)部測(cè)試中取得了優(yōu)異的性能(特別是在OULU-NPU數(shù)據(jù)集(Protocol1)實(shí)現(xiàn)了0.2%的ACER),2)在跨數(shù)據(jù)集測(cè)試中也有很好的通用性(特別是從CASIAMFSD到Replay-Attack數(shù)據(jù)集,實(shí)現(xiàn)了6.5%的HTER)。

人臉防偽對(duì)人臉識(shí)別系統(tǒng)的安全性至關(guān)重要。目前,深度監(jiān)督學(xué)習(xí)被證明是最有效的方法之一。雖然取得了巨大成功,但以往大多數(shù)的研究工作是把問題表述為單幀多任務(wù)的問題,只是簡(jiǎn)單地用深度增強(qiáng)損失,而忽略了詳細(xì)的紋理信息以及面部深度和運(yùn)動(dòng)模式之間的相互作用。

《Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing(FAS-SGTD [2]), CVPR2020 (Oral)》論文,提出了一種新的方法來檢測(cè)來自多幀多任務(wù)的攻擊,該方法基于兩點(diǎn)洞察:

1. 通過堆疊的普通卷積,活體人臉和偽造人臉之間詳細(xì)的判別性線索(例如,空間梯度幅度)可能會(huì)被丟棄

2.  三維移動(dòng)人臉的動(dòng)態(tài)提供了檢測(cè)偽造人臉的重要線索。該方法能通過殘差空間梯度塊(RSGB)捕捉判別細(xì)節(jié),并對(duì)時(shí)空傳播模塊(STPM)的時(shí)空信息進(jìn)行有效編碼。此外,還提出了一種新的對(duì)比性深度損失法(ContrastiveDepth Loss),以實(shí)現(xiàn)更準(zhǔn)確的深度監(jiān)督。為評(píng)估此方法的有效性,還收集了雙模態(tài)防偽數(shù)據(jù)集(DMAD),提供了每個(gè)樣本的實(shí)際深度。實(shí)驗(yàn)表明,所提出的方法在OULU-NPU、SiW、CASIA-MFSD、Replay-Attack和新的DMAD五種基準(zhǔn)數(shù)據(jù)集上取得了當(dāng)前最佳成績(jī)。

目前,明略科學(xué)院深度學(xué)習(xí)實(shí)驗(yàn)室的研發(fā)成果,已在智能餐飲、智能零售、供應(yīng)鏈物流、智能營(yíng)銷、智能工業(yè)等業(yè)務(wù)場(chǎng)景實(shí)際落地。

信息填寫

*手機(jī)號(hào)碼:

請(qǐng)選協(xié)議

主站蜘蛛池模板: 久久国产加勒比精品无码| 无码人妻专区免费视频| 欧美大香线蕉线伊人久久| 亚洲精品国产一区二区图片| 久久老子午夜精品无码怎么打| 特级a欧美做爰片第一次| 99无码熟妇丰满人妻啪啪| 少妇被爽到高潮动态图| 不卡无码人妻一区二区| 色欲天天天无码视频| 国产精品第一二三区久久蜜芽 | 香蕉久久一区二区不卡无毒影院 | 精品亚洲成a人在线观看青青| 精品国产成人一区二区| 欧美大屁股喷潮水xxxx| 毛葺葺老太做受视频| 国产综合精品一区二区三区| 欧美精品黑人粗大| 国产草莓精品国产av片国产| 亚洲成av人在线播放无码| 香蕉久久一区二区不卡无毒影院| 国产无遮挡又黄又爽又色| 一本无码人妻在中文字幕| 欧美日韩亚洲中文字幕一区二区三区| 凹凸在线无码免费视频| 性欧美视频videos6一9| 麻豆国产va免费精品高清在线| 亚洲综合色区另类小说| 久久精品国产男包| 天天做天天爱夜夜爽| 欧美精品一区二区在线观看播放| 成人国产精品日本在线观看| 亚洲精品久久区二区三区蜜桃臀| 77777熟女视频在线观看| 欧美在线三级艳情网站| 国产成人毛片在线视频| 无码综合天天久久综合网| 久久国产精品人妻丝袜| 在线看午夜福利片国产| 国产精品亚洲专区无码牛牛| 国产亚洲国际精品福利|