那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于可變形卷積的大規(guī)模視覺(jué)基礎(chǔ)模型

CVer ? 來(lái)源:機(jī)器之心 ? 作者:機(jī)器之心 ? 2022-11-21 11:28 ? 次閱讀

來(lái)自浦江實(shí)驗(yàn)室、清華等機(jī)構(gòu)的研究人員提出了一種新的基于卷積的基礎(chǔ)模型,稱為 InternImage,與基于 Transformer 的網(wǎng)絡(luò)不同,InternImage 以可變形卷積作為核心算子,使模型不僅具有檢測(cè)和分割等下游任務(wù)所需的動(dòng)態(tài)有效感受野,而且能夠進(jìn)行以輸入信息和任務(wù)為條件的自適應(yīng)空間聚合。InternImage-H 在 COCO 物體檢測(cè)上達(dá)到 65.4 mAP,ADE20K 達(dá)到 62.9,刷新檢測(cè)分割新紀(jì)錄。

近年來(lái)大規(guī)模視覺(jué) Transformer 的蓬勃發(fā)展推動(dòng)了計(jì)算機(jī)視覺(jué)領(lǐng)域的性能邊界。視覺(jué) Transformer 模型通過(guò)擴(kuò)大模型參數(shù)量和訓(xùn)練數(shù)據(jù)從而擊敗了卷積神經(jīng)網(wǎng)絡(luò)。來(lái)自上海人工智能實(shí)驗(yàn)室、清華、南大、商湯和港中文的研究人員總結(jié)了卷積神經(jīng)網(wǎng)絡(luò)和視覺(jué) Transformer 之間的差距。從算子層面看,傳統(tǒng)的 CNNs 算子缺乏長(zhǎng)距離依賴和自適應(yīng)空間聚合能力;從結(jié)構(gòu)層面看,傳統(tǒng) CNNs 結(jié)構(gòu)缺乏先進(jìn)組件。

針對(duì)上述技術(shù)問(wèn)題,來(lái)自浦江實(shí)驗(yàn)室、清華等機(jī)構(gòu)的研究人員創(chuàng)新地提出了一個(gè)基于卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模模型,稱為 InternImage,它將稀疏動(dòng)態(tài)卷積作為核心算子,通過(guò)輸入相關(guān)的信息為條件實(shí)現(xiàn)自適應(yīng)空間聚合。InternImage 通過(guò)減少傳統(tǒng) CNN 的嚴(yán)格歸納偏置實(shí)現(xiàn)了從海量數(shù)據(jù)中學(xué)習(xí)到更強(qiáng)大、更穩(wěn)健的大規(guī)模參數(shù)模式。其有效性在包括圖像分類(lèi)、目標(biāo)檢測(cè)和語(yǔ)義分割等視覺(jué)任務(wù)上得到了驗(yàn)證。并在 ImageNet、COCO 和 ADE20K 在內(nèi)的挑戰(zhàn)性基準(zhǔn)數(shù)據(jù)集中取得了具有競(jìng)爭(zhēng)力的效果,在同參數(shù)量水平的情況下,超過(guò)了視覺(jué) Transformer 結(jié)構(gòu),為圖像大模型提供了新的方向。

2c37a85e-68ed-11ed-8abf-dac502259ad0.png

InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions

論文鏈接:https://arxiv.org/abs/2211.05778

開(kāi)源代碼:https://github.com/OpenGVLab/InternImage

2c4c0fd8-68ed-11ed-8abf-dac502259ad0.png

2c81da46-68ed-11ed-8abf-dac502259ad0.png

傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的局限

擴(kuò)大模型的規(guī)模是提高特征表示質(zhì)量的重要策略,在計(jì)算機(jī)視覺(jué)領(lǐng)域,模型參數(shù)量的擴(kuò)大不僅能夠有效加強(qiáng)深度模型的表征學(xué)習(xí)能力,而且能夠?qū)崿F(xiàn)從海量數(shù)據(jù)中進(jìn)行學(xué)習(xí)和知識(shí)獲取。ViT 和 Swin Transformer 首次將深度模型擴(kuò)大到 20 億和 30 億參數(shù)級(jí)別,其單模型在 ImageNet 數(shù)據(jù)集的分類(lèi)準(zhǔn)確率也都突破了 90%,遠(yuǎn)超傳統(tǒng) CNN 網(wǎng)絡(luò)和小規(guī)模模型,突破了技術(shù)瓶頸。但是,傳統(tǒng)的 CNN 模型由于缺乏長(zhǎng)距離依賴和空間關(guān)系建模能力,無(wú)法實(shí)現(xiàn)同 Transformer 結(jié)構(gòu)相似的模型規(guī)模擴(kuò)展能力。研究者總結(jié)了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)與視覺(jué) Transformer 的不同之處:

(1)從算子層面來(lái)看,視覺(jué) Transformer 的多頭注意力機(jī)制具有長(zhǎng)距離依賴和自適應(yīng)空間聚合能力,受益于此,視覺(jué) Transformer 可以從海量數(shù)據(jù)中學(xué)到比 CNN 網(wǎng)絡(luò)更加強(qiáng)大和魯棒的表征。

(2)從模型架構(gòu)層面來(lái)看,除了多頭注意力機(jī)制,視覺(jué) Transformer 擁有 CNN 網(wǎng)絡(luò)不具有的更加先進(jìn)的模塊,例如 Layer Normalization (LN), 前饋神經(jīng)網(wǎng)絡(luò) FFN, GELU 等。

盡管最近的一些工作嘗試使用大核卷積來(lái)獲取長(zhǎng)距離依賴,但是在模型尺度和精度方面都與最先進(jìn)的視覺(jué) Transformer 有著一定距離。

可變形卷積網(wǎng)絡(luò)的進(jìn)一步拓展

InternImage 通過(guò)重新設(shè)計(jì)算子和模型結(jié)構(gòu)提升了卷積模型的可擴(kuò)展性并且緩解了歸納偏置,包括(1)DCNv3 算子,基于 DCNv2 算子引入共享投射權(quán)重、多組機(jī)制和采樣點(diǎn)調(diào)制。(2)基礎(chǔ)模塊,融合先進(jìn)模塊作為模型構(gòu)建的基本模塊單元(3)模塊堆疊規(guī)則,擴(kuò)展模型時(shí)規(guī)范化模型的寬度、深度、組數(shù)等超參數(shù)。

該工作致力于構(gòu)建一個(gè)能夠有效地?cái)U(kuò)展到大規(guī)模參數(shù)的 CNN 模型。首先,重新設(shè)計(jì)的可變形卷積算子 DCNv2 以適應(yīng)長(zhǎng)距離依賴和弱化歸納偏置;然后,將調(diào)整后的卷積算子與先進(jìn)組件相結(jié)合,建立了基礎(chǔ)單元模塊;最后,探索并實(shí)現(xiàn)模塊的堆疊和縮放規(guī)則,以建立一個(gè)具有大規(guī)模參數(shù)的基礎(chǔ)模型,并且可以從海量數(shù)據(jù)中學(xué)習(xí)到強(qiáng)大的表征。

2cbcc4ee-68ed-11ed-8abf-dac502259ad0.png

算子層面,該研究首先總結(jié)了卷積算子與其他主流算子的主要區(qū)別。當(dāng)前主流的 Transformer 系列模型主要依靠多頭自注意力機(jī)制實(shí)現(xiàn)大模型構(gòu)建,其算子具有長(zhǎng)距離依賴性,足以構(gòu)建遠(yuǎn)距離特征間的連接關(guān)系,還具有空間的自適應(yīng)聚合能力以實(shí)現(xiàn)構(gòu)建像素級(jí)別的關(guān)系。但這種全局的注意力機(jī)制其計(jì)算和存儲(chǔ)需求量巨大,很難實(shí)現(xiàn)高效訓(xùn)練和快速收斂。同樣的,局部注意力機(jī)制缺乏遠(yuǎn)距離特征依賴。大核密集卷積由于沒(méi)有空間聚合能力,而難以克服卷積天然的歸納偏置,不利于擴(kuò)大模型。因此,InternImage 通過(guò)設(shè)計(jì)動(dòng)態(tài)稀疏卷積算子,達(dá)到實(shí)現(xiàn)全局注意力效果的同時(shí)不過(guò)多浪費(fèi)計(jì)算和存儲(chǔ)資源,實(shí)現(xiàn)高效訓(xùn)練。

研究者基于 DCNv2 算子,重新設(shè)計(jì)調(diào)整并提出 DCNv3 算子,具體改進(jìn)包括以下幾個(gè)部分。

(1)共享投射權(quán)重。與常規(guī)卷積類(lèi)似,DCNv2 中的不同采樣點(diǎn)具有獨(dú)立的投射權(quán)重,因此其參數(shù)大小與采樣點(diǎn)總數(shù)呈線性關(guān)系。為了降低參數(shù)和內(nèi)存復(fù)雜度,借鑒可分離卷積的思路,采用與位置無(wú)關(guān)的權(quán)重代替分組權(quán)重,在不同采樣點(diǎn)之間共享投影權(quán)重,所有采樣位置依賴性都得以保留。

(2)引入多組機(jī)制。多組設(shè)計(jì)最早是在分組卷積中引入的,并在 Transformer 的多頭自注意力中廣泛使用,它可以與自適應(yīng)空間聚合配合,有效地提高特征的多樣性。受此啟發(fā),研究者將空間聚合過(guò)程分成若干組,每個(gè)組都有獨(dú)立的采樣偏移量。自此,單個(gè) DCNv3 層的不同組擁有不同的空間聚合模式,從而產(chǎn)生豐富的特征多樣性。

(3)采樣點(diǎn)調(diào)制標(biāo)量歸一化。為了緩解模型容量擴(kuò)大時(shí)的不穩(wěn)定問(wèn)題,研究者將歸一化模式設(shè)定為逐采樣點(diǎn)的 Softmax 歸一化,這不僅使大規(guī)模模型的訓(xùn)練過(guò)程更加穩(wěn)定,而且還構(gòu)建了所有采樣點(diǎn)的連接關(guān)系。

2d10f4d8-68ed-11ed-8abf-dac502259ad0.png

構(gòu)建 DCNv3 算子之后,接下來(lái)首先需要規(guī)范化模型的基礎(chǔ)模塊和其他層的整體細(xì)節(jié),然后通過(guò)探索這些基礎(chǔ)模塊的堆疊策略,構(gòu)建 InternImage。最后,根據(jù)所提出模型的擴(kuò)展規(guī)則,構(gòu)建不同參數(shù)量的模型。

基礎(chǔ)模塊。與傳統(tǒng) CNN 中廣泛使用的瓶頸結(jié)構(gòu)不同,該研究采用了更接近 ViTs 的基礎(chǔ)模塊,配備了更先進(jìn)的組件,包括 GELU、層歸一化(LN)和前饋網(wǎng)絡(luò)(FFN),這些都被證明在各種視覺(jué)任務(wù)中更有效率。基礎(chǔ)模塊的細(xì)節(jié)如上圖所示,其中核心算子是 DCNv3,通過(guò)將輸入特征通過(guò)一個(gè)輕量級(jí)的可分離卷積來(lái)預(yù)測(cè)采樣偏置和調(diào)制尺度。對(duì)于其他組件,遵循與普通 Transformer 相同的設(shè)計(jì)。

疊加規(guī)則。為了明確區(qū)塊堆疊過(guò)程,該研究提出兩條模塊堆疊規(guī)則,其中第一條規(guī)則是后三個(gè)階段的通道數(shù)2d59db1c-68ed-11ed-8abf-dac502259ad0.png,由第一階段的通道數(shù)2d6c067a-68ed-11ed-8abf-dac502259ad0.png決定,即2d785876-68ed-11ed-8abf-dac502259ad0.png;第二條規(guī)則是各模塊組號(hào)與各階段的通道數(shù)對(duì)應(yīng),即2d856d0e-68ed-11ed-8abf-dac502259ad0.png;第三,堆疊模式固定為 “AABA”,即第 1、2 和 4 階段的模塊堆疊數(shù)是相同的2d941656-68ed-11ed-8abf-dac502259ad0.png,并且不大于第 3 階段2da0103c-68ed-11ed-8abf-dac502259ad0.png。由此選擇將參數(shù)量為 30M 級(jí)別的模型作為基礎(chǔ),其具體參數(shù)為:Steam 輸出通道數(shù)2dae0ec6-68ed-11ed-8abf-dac502259ad0.png為 64;分組數(shù)為每個(gè)階段輸入通道數(shù)的 1/16,第 1、2、4 階段的模塊堆疊數(shù)2dbbec94-68ed-11ed-8abf-dac502259ad0.png為 4,第 3 階段的模塊堆疊數(shù)2dc93ab6-68ed-11ed-8abf-dac502259ad0.png為 18,模型參數(shù)為 30M。

模型縮放規(guī)則。基于上述約束條件下的最優(yōu)模型,該研究規(guī)范化了網(wǎng)絡(luò)模型的兩個(gè)縮放維度:即深度 D(模塊堆疊數(shù))和寬度 C(通道數(shù)),利用限制因子2dd62cbc-68ed-11ed-8abf-dac502259ad0.png2de3ae1e-68ed-11ed-8abf-dac502259ad0.png沿著復(fù)合系數(shù)2df24a46-68ed-11ed-8abf-dac502259ad0.png對(duì)深度和寬度進(jìn)行縮放,即,2e01bc42-68ed-11ed-8abf-dac502259ad0.png,其中2e12e260-68ed-11ed-8abf-dac502259ad0.png,根據(jù)實(shí)驗(yàn)其最佳設(shè)置為2e20a0f8-68ed-11ed-8abf-dac502259ad0.png

按照此規(guī)則,該研究構(gòu)建了不同尺度的模型,即 InternImage-T、S、B、L、XL。具體參數(shù)為:

2e2d0df2-68ed-11ed-8abf-dac502259ad0.png

實(shí)驗(yàn)結(jié)果

圖像分類(lèi)實(shí)驗(yàn):通過(guò)使用 427M 的公共數(shù)據(jù)集合:Laion-400M,YFCC15M,CC12M,InternImage-H 在 ImageNet-1K 的精度達(dá)到了 89.2%。

2e428ef2-68ed-11ed-8abf-dac502259ad0.png

目標(biāo)檢測(cè):以最大規(guī)模的 InternImage-H 為骨干網(wǎng)絡(luò),并使用 DINO 作為基礎(chǔ)檢測(cè)框架,在 Objects365 數(shù)據(jù)集上預(yù)訓(xùn)練 DINO 檢測(cè)器,然后在 COCO 上進(jìn)行微調(diào)。該模型在目標(biāo)檢測(cè)任務(wù)中達(dá)到了 65.4% 的最優(yōu)結(jié)果,突破了 COCO 目標(biāo)檢測(cè)的性能邊界。

2e9077f2-68ed-11ed-8abf-dac502259ad0.png

語(yǔ)義分割:在語(yǔ)義分割上,InternImage-H 同樣取得了很好的性能,結(jié)合 Mask2Former 在 ADE20K 上取得了當(dāng)前最高的 62.9%。

2ebae5be-68ed-11ed-8abf-dac502259ad0.png

結(jié)論

該研究提出了 InternImage,這是一種新的基于 CNN 的大規(guī)模基礎(chǔ)模型,可以為圖像分類(lèi)、對(duì)象檢測(cè)和語(yǔ)義分割等多功能視覺(jué)任務(wù)提供強(qiáng)大的表示。研究者調(diào)整靈活的 DCNv2 算子以滿足基礎(chǔ)模型的需求,并以核心算子為核心開(kāi)發(fā)了一系列的 block、stacking 和 scaling 規(guī)則。目標(biāo)檢測(cè)和語(yǔ)義分割基準(zhǔn)的大量實(shí)驗(yàn)驗(yàn)證了 InternImage 可以獲得與經(jīng)過(guò)大量數(shù)據(jù)訓(xùn)練、且精心設(shè)計(jì)的大規(guī)模視覺(jué) Transformer 相當(dāng)或更好的性能,這表明 CNN 也是大規(guī)模視覺(jué)基礎(chǔ)模型研究的一個(gè)相當(dāng)大的選擇。盡管如此,大規(guī)模的 CNN 仍處于早期發(fā)展階段,研究人員希望 InternImage 可以作為一個(gè)很好的起點(diǎn)。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:65.4 AP!刷新COCO目標(biāo)檢測(cè)新記錄!InternImage:基于可變形卷積的大規(guī)模視覺(jué)基礎(chǔ)模型

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    介紹了如何使用分類(lèi)任務(wù)進(jìn)行手寫(xiě)數(shù)字的分類(lèi)。相信大家腦海中可能會(huì)產(chǎn)生如下疑問(wèn): 數(shù)據(jù)依賴性強(qiáng):分類(lèi)模型的表現(xiàn)通常依賴于大量的標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練。獲取高質(zhì)量、大規(guī)模的數(shù)據(jù)集既耗時(shí)又昂貴。 泛化能力有限:模型
    發(fā)表于 12-19 14:33

    深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其靈感來(lái)源于生物的視覺(jué)皮層機(jī)制。它通過(guò)模擬人類(lèi)視覺(jué)系統(tǒng)的處理方式,能夠自動(dòng)提取圖像特征,從而在圖像識(shí)別和分類(lèi)任務(wù)中表現(xiàn)出色。 卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 14:52 ?402次閱讀

    使用EMBark進(jìn)行大規(guī)模推薦系統(tǒng)訓(xùn)練Embedding加速

    推薦系統(tǒng)是互聯(lián)網(wǎng)行業(yè)的核心系統(tǒng),如何高效訓(xùn)練推薦系統(tǒng)是各公司關(guān)注的核心問(wèn)題。目前,推薦系統(tǒng)基本上都是基于深度學(xué)習(xí)的大規(guī)模 ID 類(lèi)模型模型包含數(shù)十億甚至數(shù)百億級(jí)別的 ID 特征,典型結(jié)構(gòu)如圖 1 所示。
    的頭像 發(fā)表于 10-31 14:46 ?264次閱讀
    使用EMBark進(jìn)行<b class='flag-5'>大規(guī)模</b>推薦系統(tǒng)訓(xùn)練Embedding加速

    電壓放大器在可變形機(jī)翼縮比模型主動(dòng)變形實(shí)驗(yàn)中的應(yīng)用

    實(shí)驗(yàn)名稱:可變形機(jī)翼縮比模型主動(dòng)變形實(shí)驗(yàn)驗(yàn)證研究方向:介紹了可用于低速風(fēng)洞實(shí)驗(yàn)要求的可變形縮比模型的設(shè)計(jì)方案,以及粘接MFC致動(dòng)器之后,
    的頭像 發(fā)表于 09-30 14:45 ?1712次閱讀
    電壓放大器在<b class='flag-5'>可變形</b>機(jī)翼縮比<b class='flag-5'>模型</b>主動(dòng)<b class='flag-5'>變形</b>實(shí)驗(yàn)中的應(yīng)用

    計(jì)算機(jī)視覺(jué)技術(shù)的AI算法模型

    計(jì)算機(jī)視覺(jué)技術(shù)作為人工智能領(lǐng)域的一個(gè)重要分支,旨在使計(jì)算機(jī)能夠像人類(lèi)一樣理解和解釋圖像及視頻中的信息。為了實(shí)現(xiàn)這一目標(biāo),計(jì)算機(jī)視覺(jué)技術(shù)依賴于多種先進(jìn)的AI算法模型。以下將詳細(xì)介紹幾種常見(jiàn)的計(jì)算機(jī)
    的頭像 發(fā)表于 07-24 12:46 ?1088次閱讀

    經(jīng)典卷積網(wǎng)絡(luò)模型介紹

    經(jīng)典卷積網(wǎng)絡(luò)模型在深度學(xué)習(xí)領(lǐng)域,尤其是在計(jì)算機(jī)視覺(jué)任務(wù)中,扮演著舉足輕重的角色。這些模型通過(guò)不斷演進(jìn)和創(chuàng)新,推動(dòng)了圖像處理、目標(biāo)檢測(cè)、圖像生成、語(yǔ)義分割等多個(gè)領(lǐng)域的發(fā)展。以下將詳細(xì)探討
    的頭像 發(fā)表于 07-11 11:45 ?628次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)方法有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類(lèi)、目標(biāo)檢測(cè)、語(yǔ)義分割等計(jì)算機(jī)視覺(jué)任務(wù)。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:40 ?555次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和工作原理

    和工作原理。 1. 引言 在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)是一種非常重要的模型。它通過(guò)模擬人類(lèi)視覺(jué)系統(tǒng),能夠自動(dòng)學(xué)習(xí)圖像中的特征,從而實(shí)現(xiàn)對(duì)圖像的識(shí)別和分類(lèi)。與傳統(tǒng)的機(jī)器學(xué)習(xí)方法相比,CNN具有更強(qiáng)的特征提取能力,能夠處理更復(fù)雜的數(shù)
    的頭像 發(fā)表于 07-03 09:38 ?922次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基本概念、結(jié)構(gòu)
    的頭像 發(fā)表于 07-03 09:15 ?520次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)cnn模型有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語(yǔ)言處理等領(lǐng)域。 CNN的基本概念 1.1 卷積
    的頭像 發(fā)表于 07-02 15:24 ?797次閱讀

    大規(guī)模語(yǔ)言模型:從理論到實(shí)踐】- 閱讀體驗(yàn)

    注意力機(jī)制提高了模型在處理長(zhǎng)序列數(shù)據(jù)時(shí)的性能,但在某些任務(wù)上,傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)可能仍然具有優(yōu)勢(shì)。此外,注意力機(jī)制本身也可能存在某些性能瓶頸,需要進(jìn)一步的研究和優(yōu)化
    發(fā)表于 06-07 14:44

    大規(guī)模語(yǔ)言模型:從理論到實(shí)踐】- 每日進(jìn)步一點(diǎn)點(diǎn)

    非常推薦大家去讀 【大規(guī)模語(yǔ)言模型:從理論到實(shí)踐】這本書(shū),系統(tǒng)的講解了大模型的前世今生,對(duì)各個(gè)環(huán)節(jié)知識(shí)進(jìn)行了普及。 今天跟我一起學(xué)習(xí)歸一化的部分。 大模型訓(xùn)練中的歸一化是一個(gè)關(guān)鍵步驟
    發(fā)表于 05-31 19:54

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    概率推斷,利用共現(xiàn)矩陣學(xué)習(xí)每個(gè)詞的主題分布,進(jìn)而將其作為詞的表示向量。在大規(guī)模語(yǔ)料庫(kù)中進(jìn)行模型訓(xùn)練,使語(yǔ)義相似的詞具有相似的主題分布。然而,這類(lèi)方法存在一個(gè)問(wèn)題,即模型一旦訓(xùn)練完成,詞的分布式表示
    發(fā)表于 05-05 12:17

    利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)SAR目標(biāo)分類(lèi)的研究

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種在圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域廣泛應(yīng)用的深度學(xué)習(xí)模型,因其能夠自動(dòng)學(xué)習(xí)圖像的層次化特征表示而成為SAR目標(biāo)分類(lèi)的理想選擇。
    發(fā)表于 04-08 09:39 ?514次閱讀
    利用<b class='flag-5'>卷積</b>神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)SAR目標(biāo)分類(lèi)的研究

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.30】大規(guī)模語(yǔ)言模型:從理論到實(shí)踐

    ,在大模型實(shí)踐和理論研究的過(guò)程中,歷時(shí)8個(gè)月完成 《大規(guī)模語(yǔ)言模型:從理論到實(shí)踐》 一書(shū)的撰寫(xiě)。希望這本書(shū)能夠幫助讀者快速入門(mén)大模型的研究和應(yīng)用,并解決相關(guān)技術(shù)問(wèn)題。 本書(shū)一經(jīng)上市,
    發(fā)表于 03-11 15:16
    百家乐有作弊的吗| 澳门百家乐官网网上赌博| 大发888网页版下载| 百家乐连赢的策略| 百家乐官网投注法| 大发888娱乐场东南网| 百家乐系统足球博彩通| 百家乐官网技巧大全| 一起pk棋牌游戏下载| 百家乐2号技术| 真人百家乐官网博弈| 大发888娱乐场老虎机| 百家乐免佣台| 网上百家乐官网是现场吗| 365在线投注| 百家乐必胜方法如果你还想继续不看可能后悔一生 | 禹州市| 永利高娱乐场| 百家乐一柱擎天| 万人迷百家乐官网的玩法技巧和规则 | bet365百家乐| 百家乐b28博你发v| 百家乐心得分享| 百家乐官网可以出千吗| 资源县| 澳门博彩8345cc| 百家乐计划软件| 做百家乐网上投注| 立博百家乐官网的玩法技巧和规则 | 百家乐代理新闻| 利澳百家乐官网娱乐城| 百家乐官网做中介赚钱| 明升备用| 大发888游戏平台46| 赌场百家乐实战| 百家乐高手看百家乐| 天猫百家乐官网娱乐城| 百家乐官网书| 建德市| 万豪国际娱乐网| 大发888wf娱乐场下载|