那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊優(yōu)圖入選AAAI 2021的論文節(jié)選 涵蓋動(dòng)作識(shí)別和人臉安全等領(lǐng)域

MEMS ? 來源:MEMS ? 作者:MEMS ? 2020-12-23 15:06 ? 次閱讀

近日,國(guó)際人工智能頂級(jí)會(huì)議AAAI 2021公布了論文錄取結(jié)果。AAAI是人工智能領(lǐng)域最悠久、涵蓋內(nèi)容最為廣泛的國(guó)際頂級(jí)學(xué)術(shù)會(huì)議之一。AAAI 2021一共收到9034篇論文提交,其中有效審稿的數(shù)量為7911篇,最終錄取數(shù)量為1692篇,錄取率為21.4%。

AAAI (Association for the Advance of Artificial Intelligence), 即美國(guó)人工智能協(xié)會(huì),是人工智能領(lǐng)域的主要學(xué)術(shù)組織之一,其主辦的年會(huì)也是人工智能領(lǐng)域的國(guó)際頂級(jí)會(huì)議。在中國(guó)計(jì)算機(jī)學(xué)會(huì)的國(guó)際學(xué)術(shù)會(huì)議排名以及清華大學(xué)新發(fā)布的計(jì)算機(jī)科學(xué)推薦學(xué)術(shù)會(huì)議和期刊列表中,AAAI 均被列為人工智能領(lǐng)域的 A 類頂級(jí)會(huì)議。

本次AAAI 騰訊優(yōu)圖實(shí)驗(yàn)室共入選了11篇論文,涉及動(dòng)作識(shí)別、人群密度估計(jì)、人臉安全等領(lǐng)域,展現(xiàn)了騰訊在計(jì)算機(jī)視覺領(lǐng)域的技術(shù)實(shí)力。

以下為部分騰訊優(yōu)圖入選AAAI 2021的論文:

01

學(xué)習(xí)用于動(dòng)作識(shí)別的全面運(yùn)動(dòng)特征表達(dá)

Learning Comprehensive Motion Representation for Action Recognition

運(yùn)動(dòng)特征在動(dòng)作識(shí)別中起到非常重要的作用。基于2D CNN的方法雖然高效,但是由于對(duì)每一幀都采用相同的二維卷積核,會(huì)產(chǎn)生大量的冗余和重復(fù)特征。近期有一些工作通過建立幀間的聯(lián)系獲取運(yùn)動(dòng)信息,但是依然存在感受野有限的問題。此外,特征的增強(qiáng)依舊只在通道或者空間維度單獨(dú)進(jìn)行。

為了解決這些問題,我們首先提出了一個(gè)通道特征增強(qiáng)模塊(CME)自適應(yīng)地增強(qiáng)與運(yùn)動(dòng)相關(guān)的通道。增強(qiáng)系數(shù)通過分析整段視頻的信息獲得。根據(jù)相鄰特征圖之間的點(diǎn)對(duì)點(diǎn)相似性,我們進(jìn)一步提出了一種空間運(yùn)動(dòng)增強(qiáng)(SME)模塊,以指導(dǎo)模型集中于包含運(yùn)動(dòng)關(guān)鍵目標(biāo)的區(qū)域,其背后的直覺是背景區(qū)域的變化通常比視頻的運(yùn)動(dòng)區(qū)域慢。通過將CME和SME集成到現(xiàn)成的2D網(wǎng)絡(luò)中,我們最終獲得了用于動(dòng)作識(shí)別的全面運(yùn)動(dòng)特征學(xué)習(xí)方法。

我們的方法在三個(gè)公共數(shù)據(jù)集上取得了有競(jìng)爭(zhēng)力的表現(xiàn):Something-Something V1&V2和Kinetics-400。特別是在時(shí)序推理數(shù)據(jù)集Something-Something V1和V2上,當(dāng)使用16幀作為輸入時(shí),我們的方法比之前最好的方法高2.3%和1.9%。

02

選擇還是融合?基于自適應(yīng)尺度選擇的人群密度估計(jì)ToChooseortoFuse?ScaleSelectionforCrowdCounting

本文提出了一種高效地充分利用網(wǎng)絡(luò)內(nèi)部多尺度特征表示的方法,能夠有效解決人群密度估計(jì)中的大范圍尺度變化問題。具體的,考慮到每層特征都有各自最擅長(zhǎng)預(yù)測(cè)的人群尺度范圍,本文提出了一種圖像塊級(jí)別的特征層選擇策略來實(shí)現(xiàn)盡可能小的計(jì)數(shù)誤差。顯然,在沒有人群尺度標(biāo)注信息的情況下,任何人工指定人群尺度與特征層對(duì)應(yīng)關(guān)系的方法都是次優(yōu)的并會(huì)帶來額外誤差。

相反,本文提出的尺度自適應(yīng)選擇網(wǎng)絡(luò)SASNet可以自動(dòng)地學(xué)習(xí)這種對(duì)應(yīng)關(guān)系,并通過軟選擇的方式來緩解離散的特征層與連續(xù)的人群尺度變化之間的矛盾。由于SASNet為同一圖像塊內(nèi)相似尺度的人群選擇同一特征層,直接使用傳統(tǒng)的像素級(jí)損失函數(shù)會(huì)忽略圖像塊內(nèi)部不同樣本間各異的學(xué)習(xí)難度。

因此,本文還提出了一種金字塔區(qū)域感知損失(PRALoss),從圖像塊級(jí)別開始以一種自上而下的方式迭代地選擇最困難的樣本來優(yōu)化。鑒于PRA Loss能夠根據(jù)上層父圖像塊是過預(yù)測(cè)還是欠預(yù)測(cè)來選擇困難樣本,因此還能夠緩解業(yè)界普遍面臨的訓(xùn)練目標(biāo)最小化和計(jì)數(shù)誤差最小化之間不一致的問題。我們的方法在多達(dá)四個(gè)公開數(shù)據(jù)集上取得了優(yōu)異的性能。

03

解耦場(chǎng)景和運(yùn)動(dòng)的無監(jiān)督視頻表征學(xué)習(xí)

Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion

相比于圖像表征學(xué)習(xí),視頻表征學(xué)習(xí)中的一個(gè)重要因素是物體運(yùn)動(dòng)信息(Object Motion)。然而我們發(fā)現(xiàn), 在當(dāng)前主流的視頻數(shù)據(jù)集中, 一些動(dòng)作類別會(huì)和發(fā)生的場(chǎng)景強(qiáng)相關(guān), 導(dǎo)致模型往往只關(guān)注了場(chǎng)景信息。比如,模型可能僅僅因?yàn)榘l(fā)生的場(chǎng)景是足球場(chǎng),就將拉拉隊(duì)員在足球場(chǎng)上跳舞的視頻判斷成了踢足球。

這違背了視頻表征學(xué)習(xí)最初的目的,即學(xué)習(xí)物體運(yùn)動(dòng)信息,并且不容忽視的是,不同的數(shù)據(jù)集可能會(huì)帶來不同的場(chǎng)景偏見(Scene Bias)。為了解決這個(gè)問題, 我們提出了用兩個(gè)簡(jiǎn)單的操作來解耦合場(chǎng)景和運(yùn)動(dòng)(Decoupling the Scene and the Motion, DSM),以此來到達(dá)讓模型更加關(guān)注運(yùn)動(dòng)信息的目的。

具體來說,我們?yōu)槊慷我曨l都會(huì)構(gòu)造一個(gè)正樣本和一個(gè)負(fù)樣本,相比于原始視頻, 正樣本的運(yùn)動(dòng)信息沒有發(fā)生變化,但場(chǎng)景被破壞掉了,而負(fù)樣本的運(yùn)動(dòng)信息發(fā)生了改變,但場(chǎng)景信息基本被保留了下來。構(gòu)造正負(fù)樣本的操作分別叫做Spatial Local Disturbance和Temporal Local Disturbance。

我們的優(yōu)化目標(biāo)是在隱空間在拉近正樣本和原始視頻的同時(shí),推遠(yuǎn)負(fù)樣本。用這種方式,場(chǎng)景帶來的負(fù)面影響被削弱掉了,而模型對(duì)時(shí)序也變得更加敏感。我們?cè)趦蓚€(gè)任務(wù)上,用不同的網(wǎng)絡(luò)結(jié)構(gòu)、不同的預(yù)訓(xùn)練數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn)驗(yàn)證,發(fā)現(xiàn)我們方法在動(dòng)作識(shí)別任務(wù)上,在UCF101以及HMDB51數(shù)據(jù)集上分別超越當(dāng)前學(xué)界領(lǐng)先水平8.1%以及8.8%。

04

面向真實(shí)圖像超分辨率的頻率一致性自適應(yīng)方法

FrequencyConsistentAdaptationforRealWorldSuperResolution

最近的基于深度學(xué)習(xí)的超分辨率(SR)方法在具有已知降質(zhì)的圖像上取得了卓越的性能。但是,這些方法在現(xiàn)實(shí)世界中總是會(huì)失敗,因?yàn)槔硐胪嘶ɡ纾p三次降采樣)之后的低分辨率(LR)圖像會(huì)偏離真實(shí)源域。在頻率密度上可以清楚地觀察到LR圖像和真實(shí)世界圖像之間的域間隙,這啟發(fā)我們顯式地縮小由于不正確的降質(zhì)而導(dǎo)致的間隙。

從這個(gè)角度出發(fā),我們?cè)O(shè)計(jì)了一種新穎的頻率一致性自適應(yīng)方法(FCA),能夠確保將現(xiàn)有SR方法應(yīng)用于真實(shí)場(chǎng)景時(shí)保持頻域一致性。我們從無監(jiān)督的圖像中估計(jì)退化內(nèi)核,并生成相應(yīng)的LR圖像。為了給核估計(jì)提供有用的梯度信息,我們提出了通過區(qū)分不同尺度圖像的頻率密度的頻率密度比較器(FDC)。

基于域一致的LR-HR對(duì),我們訓(xùn)練了易于實(shí)現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)SR模型。大量實(shí)驗(yàn)表明,所提出的FCA在真實(shí)環(huán)境下提高了SR模型的性能,以高保真度和合理的感知度獲得了最先進(jìn)的結(jié)果,從而為實(shí)際SR應(yīng)用提供了一種新穎有效的框架。

05

混合域活體檢測(cè)中的通用表征學(xué)習(xí)

Generalizable Representation Learning for Mixture Domain Face Anti-Spoofing

基于域泛化的活體檢測(cè)技術(shù)對(duì)未知場(chǎng)景有更好的泛化性,受到了工業(yè)界和學(xué)術(shù)界的廣泛關(guān)注。已有的域泛化方法需要域標(biāo)簽的支持,然而在實(shí)際場(chǎng)景中,所收集到的往往是域信息不可知的混合數(shù)據(jù)。在這種場(chǎng)景下,大多數(shù)已有的方法是不可用的。而且域劃分的方式可以有多種,因此單一固定的劃分方法可能只是次優(yōu)解。

為解決實(shí)際混合數(shù)據(jù)問題,我們提出了一種基于迭代式無監(jiān)督子域劃分的元學(xué)習(xí)方法。該方法無需域標(biāo)簽,通過高鑒別性的域特征實(shí)現(xiàn)子域劃分,并通過元學(xué)習(xí)的方式進(jìn)行模型的優(yōu)化。具體來說,我們基于實(shí)例正則化定義了域信息表示,并設(shè)計(jì)了域表示學(xué)習(xí)模塊(DRLM)來提取高鑒別性的域特征用以精準(zhǔn)的域聚類。

此外,為了緩解離群點(diǎn)對(duì)聚類的阻礙,我們采用最大均值差異(MMD)來校正樣本特征分布與先驗(yàn)分布的差異,以增強(qiáng)聚類的可靠性。實(shí)驗(yàn)結(jié)果表明我們的方法(D2AM)優(yōu)于傳統(tǒng)的域泛化方法,包括使用域標(biāo)簽的方法,為實(shí)際場(chǎng)景下活體技術(shù)的應(yīng)用提供了有效框架。

06

基于局部關(guān)聯(lián)學(xué)習(xí)的人臉偽造檢測(cè)

Local Relation Learning for Face Forgery Detection

隨著人臉編輯技術(shù)的快速發(fā)展,人臉內(nèi)容取證引起了廣泛的關(guān)注。大多數(shù)現(xiàn)有方法往往利用二值類別標(biāo)簽或偽造區(qū)域等監(jiān)督信息來解決人臉偽造檢測(cè)任務(wù)。然而,由于沒有考慮到局部區(qū)域間的關(guān)聯(lián),這些全局監(jiān)督信息不足以學(xué)習(xí)到泛化性強(qiáng)的特征,往往容易過擬合。

為了解決這個(gè)問題,我們提出了一種通過局部關(guān)聯(lián)學(xué)習(xí)來進(jìn)行人臉偽造檢測(cè)的新方法。具體而言,我們提出了一個(gè)多尺度局部相似性模塊(MPSM),該模塊通過衡量局部區(qū)域特征間的相似性來構(gòu)造一種泛化性強(qiáng)、魯棒性高的相似模式。

此外,我們還提出了一個(gè)RGB-頻域注意力模塊(RFAM)來融合RGB圖像和頻域信息,從而得到更全面的局部特征表示,進(jìn)一步提高了相似模式的可靠性。大量的實(shí)驗(yàn)表明我們所提出的方法在多個(gè)數(shù)據(jù)集上優(yōu)于現(xiàn)有的方法,同時(shí)詳細(xì)的可視化也充分證明了我們方法的魯棒性和可解釋性。

07

基于可泛化樣本選擇的行人重識(shí)別方法

OneforMore:SelectingGeneralizableSamplesforGeneralizableReIDModel

現(xiàn)有行人重新識(shí)別(ReID)模型的訓(xùn)練目標(biāo)是在當(dāng)前批次樣本上模型的損失減少,而與其他批次樣本的性能無關(guān)。它將不可避免地導(dǎo)致模型過擬合到某些樣本(例如,不平衡類中的頭部數(shù)據(jù),簡(jiǎn)單樣本或噪聲樣本)。

目前有基于采樣的方法通過設(shè)計(jì)特定準(zhǔn)則來選擇特定樣本來解決該問題,這些方法對(duì)某些類型的數(shù)據(jù)(例如難樣本,尾部數(shù)據(jù))施加了更多的關(guān)注,這不適用于真實(shí)的ReID數(shù)據(jù)分布。

因此,本文將所選樣本的泛化能力作為損失函數(shù),并學(xué)習(xí)一個(gè)采樣器來自動(dòng)選擇可泛化樣本,而不是簡(jiǎn)單地推測(cè)哪些樣本更有意義。更重要的是,我們提出的基于可泛化能力的采樣器可以無縫集成到ReID訓(xùn)練框架中,該框架能夠以端到端的方式同時(shí)訓(xùn)練ReID模型和采樣器。實(shí)驗(yàn)結(jié)果表明,該方法可以有效地改善ReID模型的訓(xùn)練,提高ReID模型的性能。

08

基于對(duì)比學(xué)習(xí)的小樣本植入模型

Learning a Few-shot Embedding Model by Contrastive Learning

小樣本學(xué)習(xí)是根據(jù)少量的先驗(yàn)信息去對(duì)于目標(biāo)目標(biāo)類別進(jìn)行分類。這些信息一般沉淀在一個(gè)深度模型中,用來對(duì)支持集和問詢集進(jìn)行匹配。本文的目標(biāo)是利用對(duì)比學(xué)習(xí)的方法學(xué)習(xí)一個(gè)小樣本植入模型,具體貢獻(xiàn)如下:

1 我們深入研究噪聲對(duì)比估計(jì)方法,并利用它來訓(xùn)練小樣本植入模型;
2 我們提出一個(gè)名為infoPatch的植入模型方法,智能挖掘局部的聯(lián)系,保證穩(wěn)步提升小樣本分類的能力;
3 我們?cè)谖恼轮姓故玖薸nfoPatch的有效性;
4 我們的模型的指標(biāo)在三個(gè)常用數(shù)據(jù)集miniImageNet,tieredImageNet和ewshot-CIFAR100上都達(dá)到了頂尖水準(zhǔn)。

09

基于Transformer結(jié)構(gòu)層內(nèi)-

層間聯(lián)合全局表示的圖像描述

Improving Image Captioning by Leveraging Intra- and Inter-layer Global Representation in Transformer Network

本論文由騰訊優(yōu)圖實(shí)驗(yàn)室與廈門大學(xué)合作完成。

基于Transformer的結(jié)構(gòu)近來在圖像描述任務(wù)中取得了巨大的成功, 這些模型的范式都是將目標(biāo)regions編碼成隱含特征實(shí)現(xiàn)描述的解碼。然而,我們發(fā)現(xiàn)這些隱含特征僅僅涵蓋了region級(jí)別的局部特征,忽略了考慮整張圖片的全局特征的建模,使得模型難以進(jìn)一步拓展在圖像描述中的復(fù)雜多模態(tài)推理能力。

因此,這篇文章我們提出了一個(gè)新的模型GET,同時(shí)提取更為綜合的全局信息并將全局信息作為自適應(yīng)引導(dǎo)信號(hào)生成更為高質(zhì)量的圖像描述。具體而言,在該模型中,我們首先設(shè)計(jì)了一個(gè)全局加強(qiáng)的編碼器和全局自適應(yīng)的解碼器,其中前者利用Transformer層級(jí)結(jié)構(gòu)特點(diǎn),提取層內(nèi)-層間聯(lián)合全局特征,后者則利用全局自適應(yīng)控制器,控制全局特征融入解碼器來指導(dǎo)圖像描述的生成。本文在MS COCO數(shù)據(jù)集上的實(shí)驗(yàn)證明了我們相對(duì)于當(dāng)前最先進(jìn)模型的優(yōu)勢(shì)。

10

基于雙層級(jí)特征協(xié)同Transformer的圖像描述生成

Dual-level Collaborative Transformer for Image Captioning

本論文由騰訊優(yōu)圖實(shí)驗(yàn)室與廈門大學(xué)合作完成。

由目標(biāo)檢測(cè)網(wǎng)絡(luò)提取的區(qū)域特征在圖像描述生成的發(fā)展中起著重要的作用。然而,這種特征中缺乏上下文信息和細(xì)粒度細(xì)節(jié),而這正是網(wǎng)格特征的優(yōu)點(diǎn)。本文提出了一種新的雙層級(jí)特征協(xié)同Transformer,以實(shí)現(xiàn)兩者的優(yōu)勢(shì)互補(bǔ)。

具體地說,在DLCT中,我們首先使用DWSA來挖掘它們的內(nèi)在特性,并在其中引入綜合關(guān)系注意力機(jī)制來嵌入幾何信息。此外,我們還提出了LCCA模塊,目的是解決這兩個(gè)特征直接融合所產(chǎn)生的語義噪聲問題,通過構(gòu)造幾何對(duì)齊圖來精確對(duì)齊和增強(qiáng)區(qū)域和網(wǎng)格特征。

為了驗(yàn)證我們的模型,我們?cè)诨鶞?zhǔn)數(shù)據(jù)集MS-COCO上進(jìn)行了大量的實(shí)驗(yàn),并在本地和在線測(cè)試集上實(shí)現(xiàn)了SOTA性能,在Karpathy 測(cè)試集上達(dá)到133.8%的CIDEr得分,在官方測(cè)試集上達(dá)到135.4%的CIDEr得分。

11

圖博弈嵌入

Graph Game Embedding

本論文由騰訊優(yōu)圖實(shí)驗(yàn)室與南京理工大學(xué)合作完成。

圖嵌入旨在將節(jié)點(diǎn)/邊編碼為低維連續(xù)特征,已成為圖分析的重要工具并被應(yīng)用于圖/節(jié)點(diǎn)分類,鏈接預(yù)測(cè)等任務(wù)。在本文中,我們提出了一種新穎的名為圖博弈嵌入的圖學(xué)習(xí)框架,以學(xué)習(xí)具有判別性的節(jié)點(diǎn)表示并對(duì)圖結(jié)構(gòu)進(jìn)行編碼。

受博弈學(xué)習(xí)理論的啟發(fā),節(jié)點(diǎn)嵌入被轉(zhuǎn)換為博弈過程中玩家策略的選擇/搜索過程,其中每個(gè)節(jié)點(diǎn)對(duì)應(yīng)一個(gè)玩家,而每條邊對(duì)應(yīng)于兩個(gè)玩家之間的交互。然后,定義了一個(gè)在理論上滿足納什均衡的收益函數(shù)以衡量圖演化過程中參與玩家(節(jié)點(diǎn))的收益/損失。

更進(jìn)一步地,引入了一種合作與競(jìng)爭(zhēng)機(jī)制以提高該框架的判別學(xué)習(xí)能力。在上述圖博弈嵌入框架下,考慮節(jié)點(diǎn)的不同交互方式,我們提出了兩種具體模型,即對(duì)交互圖博弈嵌入模型和群組圖博弈嵌入模型。

與現(xiàn)有的圖嵌入方法相比,本文所提出的框架具有兩個(gè)優(yōu)點(diǎn):(1)所設(shè)計(jì)的收益函數(shù)保證了圖網(wǎng)絡(luò)的穩(wěn)定演化,滿足納什均衡且具有收斂性的理論保證;(2)所引入的協(xié)作和競(jìng)爭(zhēng)機(jī)制可指導(dǎo)每個(gè)節(jié)點(diǎn)學(xué)習(xí)到區(qū)別于其他節(jié)點(diǎn)的優(yōu)化策略,從而賦予圖博弈嵌入框架以學(xué)習(xí)具有判別性特征的能力。我們?cè)谌齻€(gè)關(guān)于引文網(wǎng)絡(luò)的公共數(shù)據(jù)集上對(duì)所提出的方法進(jìn)行了評(píng)測(cè),實(shí)驗(yàn)結(jié)果驗(yàn)證了其有效性。

責(zé)任編輯:xj

原文標(biāo)題:騰訊優(yōu)圖11篇論文入選AAAI,涵蓋動(dòng)作識(shí)別和人臉安全等領(lǐng)域

文章出處:【微信公眾號(hào):MEMS】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31536

    瀏覽量

    270350
  • 人臉識(shí)別
    +關(guān)注

    關(guān)注

    76

    文章

    4020

    瀏覽量

    82319
  • 人體動(dòng)作識(shí)別

    關(guān)注

    0

    文章

    5

    瀏覽量

    2299

原文標(biāo)題:騰訊優(yōu)圖11篇論文入選AAAI,涵蓋動(dòng)作識(shí)別和人臉安全等領(lǐng)域

文章出處:【微信號(hào):MEMSensor,微信公眾號(hào):MEMS】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    人臉識(shí)別技術(shù)在安全監(jiān)控中的應(yīng)用

    在現(xiàn)代社會(huì),安全監(jiān)控是維護(hù)公共安全和社會(huì)秩序的重要手段。隨著技術(shù)的進(jìn)步,傳統(tǒng)的監(jiān)控手段已經(jīng)無法滿足日益增長(zhǎng)的安全需求。人臉識(shí)別技術(shù)作為一種新
    的頭像 發(fā)表于 02-06 17:25 ?163次閱讀

    人臉識(shí)別技術(shù)的應(yīng)用場(chǎng)景

    領(lǐng)域人臉識(shí)別技術(shù)被用來監(jiān)控和預(yù)防犯罪。通過在公共場(chǎng)所安裝攝像頭,結(jié)合人臉識(shí)別系統(tǒng),可以實(shí)時(shí)識(shí)別
    的頭像 發(fā)表于 02-06 17:20 ?164次閱讀

    ShiMetaOS | 怎樣免費(fèi)調(diào)用人臉識(shí)別模塊以及視頻結(jié)構(gòu)化分析軟件API

    ShiMetaOS內(nèi)置視美泰自研人臉識(shí)別模塊及視頻結(jié)構(gòu)化分析軟件API,可在設(shè)備端免費(fèi)實(shí)現(xiàn)本地化智能安防服務(wù):涵蓋精準(zhǔn)人臉檢測(cè)跟蹤、高速人臉
    的頭像 發(fā)表于 02-05 17:09 ?32次閱讀
    ShiMetaOS  | 怎樣免費(fèi)調(diào)用<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>模塊以及視頻結(jié)構(gòu)化分析軟件API

    校園人臉識(shí)別閘機(jī)通道的應(yīng)用

    隨著科技的飛速發(fā)展,人臉識(shí)別技術(shù)正逐步滲透到我們生活的各個(gè)領(lǐng)域,其中,教育領(lǐng)域的應(yīng)用尤為引人注目。在校園內(nèi),人臉
    的頭像 發(fā)表于 01-15 15:02 ?108次閱讀
    校園<b class='flag-5'>人臉</b><b class='flag-5'>識(shí)別</b>閘機(jī)通道的應(yīng)用

    經(jīng)緯恒潤(rùn)功能安全AI 智能體論文成功入選EMNLP 2024!

    近日,經(jīng)緯恒潤(rùn)在智能體(AIAgent)領(lǐng)域再獲佳績(jī),其論文《Aegis
    的頭像 發(fā)表于 10-18 08:00 ?395次閱讀
    經(jīng)緯恒潤(rùn)功能<b class='flag-5'>安全</b>AI 智能體<b class='flag-5'>論文</b>成功<b class='flag-5'>入選</b>EMNLP 2024!

    深度識(shí)別人臉識(shí)別有什么重要作用嗎

    深度學(xué)習(xí)人臉識(shí)別技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它利用深度學(xué)習(xí)算法來識(shí)別和驗(yàn)證個(gè)人身份。這項(xiàng)技術(shù)在多個(gè)領(lǐng)域都有廣泛的應(yīng)用,包括但不限于
    的頭像 發(fā)表于 09-10 14:55 ?676次閱讀

    優(yōu)易通無線DTU騰訊云通信實(shí)例

    優(yōu)易通無線DTU騰訊云通信實(shí)例(基于MQTT)優(yōu)——產(chǎn)品優(yōu),服務(wù)優(yōu),價(jià)格優(yōu)易——安裝易,使用易,
    的頭像 發(fā)表于 08-30 11:45 ?409次閱讀
    <b class='flag-5'>優(yōu)</b>易通無線DTU<b class='flag-5'>騰訊</b>云通信實(shí)例

    人臉識(shí)別技術(shù)將應(yīng)用在哪些領(lǐng)域

    人臉識(shí)別技術(shù)是一種基于人臉特征信息進(jìn)行身份識(shí)別的生物識(shí)別技術(shù)。隨著科技的發(fā)展,人臉
    的頭像 發(fā)表于 07-04 09:24 ?3233次閱讀

    人臉識(shí)別技術(shù)的原理介紹

    人臉識(shí)別技術(shù)是一種基于人臉特征信息進(jìn)行身份識(shí)別的生物識(shí)別技術(shù)。它通過分析人臉圖像,提取
    的頭像 發(fā)表于 07-04 09:22 ?1652次閱讀

    如何設(shè)計(jì)人臉識(shí)別的神經(jīng)網(wǎng)絡(luò)

    人臉識(shí)別技術(shù)是一種基于人臉特征信息進(jìn)行身份識(shí)別的技術(shù),廣泛應(yīng)用于安全監(jiān)控、身份認(rèn)證、智能門禁等領(lǐng)域
    的頭像 發(fā)表于 07-04 09:20 ?744次閱讀

    人臉識(shí)別模型訓(xùn)練是什么意思

    人臉識(shí)別模型訓(xùn)練是指通過大量的人臉數(shù)據(jù),使用機(jī)器學(xué)習(xí)或深度學(xué)習(xí)算法,訓(xùn)練出一個(gè)能夠識(shí)別和分類人臉的模型。這個(gè)模型可以應(yīng)用于各種場(chǎng)景,如安防監(jiān)
    的頭像 發(fā)表于 07-04 09:16 ?741次閱讀

    人臉檢測(cè)和人臉識(shí)別的區(qū)別是什么

    人臉檢測(cè)和人臉識(shí)別是計(jì)算機(jī)視覺領(lǐng)域的兩個(gè)重要技術(shù),它們?cè)谠S多應(yīng)用場(chǎng)景中都有廣泛的應(yīng)用,如安全監(jiān)控、身份驗(yàn)證、社交媒體等。盡管它們?cè)谀承┓矫嬗?/div>
    的頭像 發(fā)表于 07-03 14:49 ?1417次閱讀

    人臉檢測(cè)與識(shí)別的方法有哪些

    人臉檢測(cè)與識(shí)別是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要研究方向,具有廣泛的應(yīng)用前景,如安全監(jiān)控、身份認(rèn)證、智能視頻分析等。本文將詳細(xì)介紹人臉檢測(cè)與
    的頭像 發(fā)表于 07-03 14:45 ?841次閱讀

    電梯人臉識(shí)別測(cè)溫一體機(jī):引領(lǐng)樓宇安全與便利的新篇章

    隨著科技的飛速發(fā)展,智能化、自動(dòng)化的設(shè)備在各個(gè)領(lǐng)域得到了廣泛應(yīng)用。在電梯領(lǐng)域,電梯人臉識(shí)別測(cè)溫一體機(jī)作為一種集成了人臉
    的頭像 發(fā)表于 06-26 14:27 ?570次閱讀

    人臉識(shí)別技術(shù)的原理是什么 人臉識(shí)別技術(shù)的特點(diǎn)有哪些

    人臉識(shí)別技術(shù)的原理 人臉識(shí)別技術(shù)是一種通過計(jì)算機(jī)以圖像或視頻為輸入,識(shí)別、檢測(cè)、跟蹤和分析人臉
    的頭像 發(fā)表于 02-18 13:52 ?2456次閱讀
    猫游棋牌下载| 澳门百家乐常赢打法| 南昌县| 尊龙百家乐娱乐场开户注册| 百家乐官网透视牌靴价格| 万利娱乐城开户| 百家乐认牌| 新百家乐官网.百万筹码| 波克棋牌官方免费下载| 百家乐博彩通博彩网皇冠网澳门赌场真人赌博 | 哪个百家乐官网最好| 威尼斯人娱乐网站| 高楼24层风水好吗| 百家乐官网路的看法| 威尼斯人娱乐场首页| 做生意门面朝向风水| 临武县| 老虎机破解| 百家乐盈利分析路单| 有破解百家乐官网仪器| 喜达国际| 威尼斯人娱乐城 196| 罗盘24山珠宝火坑| 网上百家乐官网能作弊吗| 蜀都棋牌游戏| 百家乐水浒传| LV百家乐官网赢钱LV| 百家乐官网视频游戏金币| 南通棋牌游戏中心| 网上百家乐的玩法技巧和规则| 加多宝百家乐官网的玩法技巧和规则 | 太原百家乐招聘| 百家乐官网微笑打| 百家乐官网分析概率原件| 棋牌赌博| 全讯网bbin888.com| 百家乐开户送彩网址| 百家乐官网公式与赌法| 百家乐官网登封代理| 棋牌新教室| 网上百家乐游戏玩法|