那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于神經(jīng)輻射場的自監(jiān)督多相機(jī)占用預(yù)測

3D視覺工坊 ? 來源:3DCV ? 2024-01-02 14:53 ? 次閱讀

1、筆者導(dǎo)讀

我們提出了一種名為OccNeRF的方法,用于自監(jiān)督多相機(jī)3D占用預(yù)測。該方法通過參數(shù)化重建的占用場來表示無限空間,并通過神經(jīng)渲染將占用場轉(zhuǎn)換為多相機(jī)深度圖。為了提供幾何和語義監(jiān)督,該方法利用多幀圖像之間的光度一致性進(jìn)行監(jiān)督。此外,為了語義占用預(yù)測,該方法還設(shè)計(jì)了幾種策略來處理預(yù)訓(xùn)練的開放詞匯模型。

2、解決了什么?

本研究提出了一種自監(jiān)督的多攝相機(jī)3D占據(jù)預(yù)測方法,名為OccNeRF。該方法旨在解決無界場景的建模問題。

3、方法

主要包括以下幾個(gè)方面:

參數(shù)化占用場景表示

使用神經(jīng)輻射場(Neural Radiance Fields,NeRF)來表示占用場景。

引入?yún)?shù)化坐標(biāo)系,將無界的場景表示為有界的占用場景。

使用參數(shù)化坐標(biāo)系中的體素來表示占用場景的內(nèi)部和外部區(qū)域。

使用占用場景的體素表示來訓(xùn)練網(wǎng)絡(luò)

多攝像頭特征聚合

對于每個(gè)攝像頭,將其對應(yīng)的圖像特征投影到參數(shù)化坐標(biāo)系中的體素上。

使用雙線性插值將投影后的特征聚合為體素特征。

使用三維卷積網(wǎng)絡(luò)提取特征并預(yù)測最終的占用輸出。

多幀深度估計(jì)

使用體素渲染技術(shù)將占用場景投影到多攝像頭的深度圖上。

通過沿著攝像頭中心到像素的射線采樣一系列點(diǎn),計(jì)算對應(yīng)像素的深度值。

使用渲染權(quán)重代替密度來適應(yīng)占用場景的表示。

使用多幀光度損失來訓(xùn)練深度估計(jì)模型。

開放詞匯語義監(jiān)督

使用多攝像頭圖像的二維語義標(biāo)簽提供像素級的語義監(jiān)督。

通過將預(yù)訓(xùn)練的開放詞匯模型的輸出與圖像特征進(jìn)行對齊,生成二維語義標(biāo)簽。

使用二維語義標(biāo)簽來訓(xùn)練網(wǎng)絡(luò),提高幾何一致性和體素之間的空間關(guān)系的捕捉能力。

4、損失函數(shù)

研究所涉及的損失函數(shù)有以下幾種:

渲染損失:用于訓(xùn)練神經(jīng)輻射場(Neural Radiance Fields,NeRF)模型的監(jiān)督信號(hào)。通過計(jì)算渲染的像素顏色與真實(shí)像素顏色之間的差異來衡量模型的性能。

時(shí)序光度損失:用于多幀深度估計(jì)的監(jiān)督信號(hào)。通過將相鄰幀投影到當(dāng)前幀,并計(jì)算投影圖像與原始圖像之間的重構(gòu)誤差來訓(xùn)練模型。

語義損失:用于語義三維占據(jù)預(yù)測的監(jiān)督信號(hào)。通過提供多相機(jī)圖像的二維語義標(biāo)簽,幫助網(wǎng)絡(luò)捕捉幾何一致性和體素之間的空間關(guān)系。

5、實(shí)驗(yàn)結(jié)果

本研究采用了自監(jiān)督的多相機(jī)占據(jù)預(yù)測方法,稱為OccNeRF。我們的實(shí)驗(yàn)方法和結(jié)果如下:

數(shù)據(jù)集:本研究在nuScenes數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),該數(shù)據(jù)集包含600個(gè)場景用于訓(xùn)練,150個(gè)場景用于驗(yàn)證,150個(gè)場景用于測試。數(shù)據(jù)集包含大約40000幀圖像和17個(gè)類別。

自監(jiān)督深度估計(jì):首先,將LiDAR點(diǎn)云投影到每個(gè)視角上,得到深度圖作為自監(jiān)督深度估計(jì)的輸入。然后,使用神經(jīng)輻射場(Neural Radiance Fields,NeRF)方法進(jìn)行深度估計(jì)。NeRF使用渲染方程將3D場景中的顏色和深度信息映射到2D圖像中。本研究在NeRF的基礎(chǔ)上進(jìn)行改進(jìn),引入了時(shí)間光度約束和多幀渲染,以提高深度估計(jì)的準(zhǔn)確性。

占據(jù)預(yù)測:為了預(yù)測場景中的占據(jù)情況,本研究使用了Grounding DINO模型和Grounded-SAM模型。首先,使用Grounding DINO模型生成檢測邊界框和對應(yīng)的logits和短語。然后,將這些信息輸入到Grounded-SAM模型中,生成精確的語義分割二值掩碼。最后,使用體素渲染技術(shù)將語義標(biāo)簽投影到圖像空間中,得到占據(jù)預(yù)測結(jié)果。

實(shí)驗(yàn)評估:本研究使用了多個(gè)評估指標(biāo)來評估深度估計(jì)和占據(jù)預(yù)測的性能,包括絕對相對誤差(Abs Rel)、平方相對誤差(Sq Rel)、均方根誤差(RMSE)等。同時(shí),與其他自監(jiān)督和有監(jiān)督方法進(jìn)行了比較,以驗(yàn)證OccNeRF方法的優(yōu)越性。

69db56ea-a72d-11ee-8b88-92fbcf53809c.png

69e2e770-a72d-11ee-8b88-92fbcf53809c.png

5、總結(jié)

本研究通過自監(jiān)督深度估計(jì)和占據(jù)預(yù)測方法,實(shí)現(xiàn)了對多攝像頭場景中的占據(jù)情況的準(zhǔn)確預(yù)測。實(shí)驗(yàn)結(jié)果表明,OccNeRF方法在深度估計(jì)和占據(jù)預(yù)測方面取得了較好的性能。

審核編輯:黃飛

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 攝像頭
    +關(guān)注

    關(guān)注

    60

    文章

    4862

    瀏覽量

    96305
  • 相機(jī)圖像
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    6075
  • LIDAR
    +關(guān)注

    關(guān)注

    10

    文章

    328

    瀏覽量

    29535

原文標(biāo)題:清華最新發(fā)布!OccNeRF:基于神經(jīng)輻射場的自監(jiān)督多相機(jī)占用預(yù)測

文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    有提供編寫神經(jīng)網(wǎng)絡(luò)預(yù)測程序服務(wù)的嗎?

    有提供編寫神經(jīng)網(wǎng)絡(luò)預(yù)測程序服務(wù)的嗎?
    發(fā)表于 12-10 13:50

    關(guān)于BP神經(jīng)網(wǎng)絡(luò)預(yù)測模型的確定!!

    請問用matlab編程進(jìn)行BP神經(jīng)網(wǎng)絡(luò)預(yù)測時(shí),訓(xùn)練結(jié)果很多都是合適的,但如何確定最合適的?且如何用最合適的BP模型進(jìn)行外推預(yù)測
    發(fā)表于 02-08 14:23

    如何用卷積神經(jīng)網(wǎng)絡(luò)方法去解決機(jī)器監(jiān)督學(xué)習(xí)下面的分類問題?

    人工智能下面有哪些機(jī)器學(xué)習(xí)分支?如何用卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法去解決機(jī)器學(xué)習(xí)監(jiān)督學(xué)習(xí)下面的分類問題?
    發(fā)表于 06-16 08:09

    基于小波包_神經(jīng)網(wǎng)絡(luò)的太陽逐時(shí)輻射預(yù)測_陳杰

    基于小波包_神經(jīng)網(wǎng)絡(luò)的太陽逐時(shí)輻射預(yù)測_陳杰
    發(fā)表于 12-31 14:45 ?1次下載

    多相機(jī)視域下行人目標(biāo)匹配

    針對多相機(jī)視域下行人目標(biāo)匹配正確率不高的問題,基于無監(jiān)督顯著性學(xué)習(xí)和局部特征匹配提出一種全局最優(yōu)匹配模型。將不同視域間的目標(biāo)匹配進(jìn)行關(guān)聯(lián),每對相機(jī)的直接匹配受制于其間接匹配的監(jiān)督,同時(shí)
    發(fā)表于 03-07 16:12 ?0次下載

    監(jiān)督學(xué)習(xí)與Transformer相關(guān)論文

    學(xué)習(xí)、Transformer、圖神經(jīng)網(wǎng)絡(luò)、自然語言處理、模型壓縮等熱點(diǎn)領(lǐng)域,將分多期為大家?guī)硐盗姓撐慕庾x。 本期的關(guān)注焦點(diǎn)是監(jiān)督學(xué)習(xí)與
    的頭像 發(fā)表于 11-02 15:50 ?2737次閱讀
    <b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>學(xué)習(xí)與Transformer相關(guān)論文

    基于主動(dòng)學(xué)習(xí)的半監(jiān)督神經(jīng)網(wǎng)絡(luò)模型來對分子性質(zhì)進(jìn)行預(yù)測方法

    總體來講,本文使用教師模型和學(xué)生模型來迭代訓(xùn)練。每個(gè)模型都是一個(gè)圖神經(jīng)網(wǎng)絡(luò)。在教師模型中,使用半監(jiān)督的方式來獲得分子圖的一般表示。我們聯(lián)合訓(xùn)練分子的無監(jiān)督表示和基于屬性預(yù)測的embed
    的頭像 發(fā)表于 11-24 09:59 ?4179次閱讀

    采用監(jiān)督CNN進(jìn)行單圖像深度估計(jì)的方法

    為了提高利用深度神經(jīng)網(wǎng)絡(luò)預(yù)測單圖像深度信息的精確度,提出了一種采用監(jiān)督卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行單圖像深度估計(jì)的方法。首先,該方法通過在編解碼結(jié)構(gòu)中
    發(fā)表于 04-27 16:06 ?13次下載
    采用<b class='flag-5'>自</b><b class='flag-5'>監(jiān)督</b>CNN進(jìn)行單圖像深度估計(jì)的方法

    基于多相機(jī)捕捉系統(tǒng)下的通用物體運(yùn)動(dòng)捕捉方法

    基于多相機(jī)捕捉系統(tǒng)下的通用物體運(yùn)動(dòng)捕捉方法
    發(fā)表于 06-25 10:34 ?29次下載

    介紹一種神經(jīng)成對配準(zhǔn)的技術(shù)NeRF2NeRF

    我們介紹了一種神經(jīng)成對配準(zhǔn)的技術(shù),它擴(kuò)展了基于優(yōu)化的經(jīng)典局部配準(zhǔn)(即ICP)以操作神經(jīng)輻射(NeRF)。
    的頭像 發(fā)表于 02-20 10:29 ?696次閱讀

    NeRF2NeRF神經(jīng)輻射的配對配準(zhǔn)介紹

    我們介紹了一種神經(jīng)成對配準(zhǔn)的技術(shù),它擴(kuò)展了基于優(yōu)化的經(jīng)典局部配準(zhǔn)(即ICP)以操作神經(jīng)輻射(NeRF)。
    的頭像 發(fā)表于 03-31 16:49 ?949次閱讀

    基于神經(jīng)輻射(NeRFs)的自動(dòng)駕駛模擬器

    如今,自動(dòng)駕駛汽車可以在普通情況下平穩(wěn)駕駛,人們普遍認(rèn)為,真實(shí)的傳感器模擬將在通過模擬解決剩余的極端情況方面發(fā)揮關(guān)鍵作用。為此,我們提出了一種基于神經(jīng)輻射(NeRFs)的自動(dòng)駕駛模擬器。
    發(fā)表于 08-01 14:46 ?817次閱讀
    基于<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場</b>(NeRFs)的自動(dòng)駕駛模擬器

    SHERF:可泛化可驅(qū)動(dòng)人體神經(jīng)輻射的新方法

    人體神經(jīng)輻射的目標(biāo)是從 2D 人體圖片中恢復(fù)高質(zhì)量的 3D 數(shù)字人并加以驅(qū)動(dòng),從而避免耗費(fèi)大量人力物力去直接獲取 3D 人體幾何信息。這個(gè)方向的探索對于一系列應(yīng)用場景,比如虛擬現(xiàn)實(shí)和輔助現(xiàn)實(shí)場景,有著非常大潛在性的影響。
    的頭像 發(fā)表于 08-15 11:46 ?871次閱讀
    SHERF:可泛化可驅(qū)動(dòng)人體<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場</b>的新方法

    WACV 2023 I從ScanNeRF到元宇宙:神經(jīng)輻射的未來

    神經(jīng)輻射(NeRF)通過將三維場景編碼成隱式表示,在視覺領(lǐng)域中廣泛應(yīng)用。通過學(xué)習(xí)多層感知機(jī)(MLP)來建立隱式映射,其中包括中間的MLP(pos)用于推斷密度和嵌入,淺層的MLP(rgb)用于
    的頭像 發(fā)表于 09-01 16:14 ?663次閱讀
    WACV 2023 I從ScanNeRF到元宇宙:<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場</b>的未來

    基于幾何分析的神經(jīng)輻射編輯方法

    神經(jīng)輻射作為近期一個(gè)廣受關(guān)注的隱式表征方法,能合成照片級真實(shí)的多視角圖像。但因?yàn)槠潆[式建模的性質(zhì),用戶難以直觀編輯神經(jīng)輻射
    的頭像 發(fā)表于 11-20 16:56 ?629次閱讀
    基于幾何分析的<b class='flag-5'>神經(jīng)</b><b class='flag-5'>輻射</b><b class='flag-5'>場</b>編輯方法
    百家乐官网是怎样的| 百家乐园首选去澳| 网络百家乐官网赌博视频| 波音赌场| 太阳百家乐官网路单生| 同仁县| 乐天堂百家乐娱乐网| 百家乐官网赌场赌场网站| 君豪棋牌是真的吗| 红宝石百家乐娱乐城| 百家乐官网园搏彩论坛| sz新全讯网网址112| 做生意的风水| 百家乐官网德州扑克桌布| 百家乐官网视频计牌器| 大发888 大发888游戏平台| 网上百家乐官网真的假| 博彩网| 百家乐平注法到65688| 属狗与属猪能做生意吗| 真人百家乐官网平台排行| 鼎盛娱乐城开户| 海立方百家乐的玩法技巧和规则 | 百家乐伴侣破解版| 大哥大百家乐官网的玩法技巧和规则 | 威尼斯人娱乐网网上百家乐的玩法技巧和规则 | 威尼斯人娱乐城骰宝| 娱乐城百家乐技巧| 海威百家乐官网赌博机| 沙巴娱乐| 大发888电话| 澳门百家乐什么规则| 怎样赢百家乐官网的玩法技巧和规则 | 百家乐官网预测和局| 网上现金棋牌游戏| 莫斯科百家乐的玩法技巧和规则| 百家乐有没有攻略| 爱赢百家乐官网现金网| 博彩评测网| 真人百家乐蓝盾赌场娱乐网规则| 百家乐下注稳赢法|