那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

清華&美團提出稀疏Pairwise損失函數!ReID任務超已有損失函數!

CVer ? 來源:CVer ? 2023-04-09 10:18 ? 次閱讀

ReID任務的目的是從海量圖像中檢索出與給定query相同ID的實例。

Pairwise損失函數在ReID 任務中發揮著關鍵作用。現有方法都是基于密集采樣機制,即將每個實例都作為錨點(anchor)采樣其正樣本和負樣本構成三元組。這種機制不可避免地會引入一些幾乎沒有視覺相似性的正對,從而影響訓練效果。為了解決這個問題,我們提出了一種新穎的損失范式,稱為稀疏Pairwise (SP) 損失,在ReID任務中針對mini-batch的每一類篩選出少數合適的樣本對來構造損失函數(如圖1所示)。基于所提出的損失框架,我們進一步提出了一種自適應正挖掘策略,可以動態地適應不同類別內部的變化。大量實驗表明,SP 損失及其自適應變體AdaSP 損失在多個ReID數據集上均優于其他成對損失方法,并取得了state-of-the-art性能。

d8a2c002-d629-11ed-bfe3-dac502259ad0.png

圖1. Sparse pairwise損失與Dense pairwise損失之間的差異

d8bb4884-d629-11ed-bfe3-dac502259ad0.png

Adaptive Sparse Pairwise Loss for Object Re-Identification

論文地址:https://arxiv.org/abs/2303.18247

Github地址(已開源):

https://github.com/Astaxanthin/AdaSP

研究動機:

ReID任務中的由于光照變化、視角改變和遮擋等原因會造成同一類中不同實例的視覺相似度很低(如圖2所示),因此由視覺相似度很低的實例(我們稱之為harmful positive pair)構成的正樣本對會對特征表示的學習過程帶來不利的影響,從而使訓練收斂至局部極小點。現有的方法都是以每個樣本作為錨(anchor)密集采樣正樣本對來構造度量損失函數,不可避免的會引入大量壞對影響訓練結果。基于此,我們提出了稀疏Pairwise損失函數以降低對壞對的采樣概率,從而減輕壞對在訓練過程的不利影響。

d8cd9ba6-d629-11ed-bfe3-dac502259ad0.png

圖2. 行人ReID數據集上不同級別的類內差異

方法介紹:我們提出的稀疏Pairwise損失函數(命名為SP loss)針對每一類僅采樣一個正樣本對和一個負樣本對。其中負樣本對為該類別與其他所有類別間最難的負樣本對,而正樣本對為所有樣本的hard positive pair集合中的最不難positive pair(least-hard mining):

d8f9ed14-d629-11ed-bfe3-dac502259ad0.png

從幾何角度看,以最難positive pair的距離作為半徑的超球面是能夠覆蓋所有類內樣本的最大球,而以hard positive pair集合中最不難positive pair的距離作為半徑的超球面是能夠副高所有類內樣本的最小球,如圖3所示。利用最小球能夠有效的避免過于難的harmful positive pair對于訓練過程的影響,我們從理論上證明了針對一個mini-batch,我們的方法采樣得到的正樣本對中harmful positive pair的期望占比小于Triplet-BH和Circle等密集采樣方法。

d906d934-d629-11ed-bfe3-dac502259ad0.png

圖3. 不同級別類內差異差異下的最大和最小覆蓋球。

為了適應不同類別可能具有不同的類內差異,我們在SP loss的基礎上增加了自適應策略構成AdaSP loss:

d9169d7e-d629-11ed-bfe3-dac502259ad0.png

d92431fa-d629-11ed-bfe3-dac502259ad0.png

d939626e-d629-11ed-bfe3-dac502259ad0.png

該loss通過動態調整構造loss所用到的正樣本對相似度以適應不同的類內差異。

實驗結果:

我們在多個行人ReID數據集(包括MSMT17,Market1501,DukeMTMC,CUHK03)和車輛ReID數據集(包括VeRi-776,VehicleID,VERIWild)上驗證了AdaSP loss的有效性。實驗結果顯示AdaSP loss在單獨使用時超過Triplet-BH,Circle,MS,Supcon,EP等已有度量損失函數,如表1所示;AdaSP loss在不同骨干網絡(包括ResNet-50/101/152,ResNet-IBN,MGN,ViT,DeiT)上的ReID性能均優于Triplet-BH;此外,AdaSP loss結合分類損失函數在ReID任務上達到了State-of-the-art的性能。

表1. 在不同數據集上不同度量損失函數的性能比較

d94748fc-d629-11ed-bfe3-dac502259ad0.png

具體細節可以參考原文。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 函數
    +關注

    關注

    3

    文章

    4346

    瀏覽量

    62973
  • 數據集
    +關注

    關注

    4

    文章

    1209

    瀏覽量

    24834
  • REID
    +關注

    關注

    1

    文章

    18

    瀏覽量

    10873

原文標題:CVPR 2023 | 清華&美團提出稀疏Pairwise損失函數!ReID任務超已有損失函數!

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    對象檢測邊界框損失函數–從IOU到ProbIOU介紹

    目標檢測損失函數的選擇在目標檢測問題建模中至關重要。通常,目標檢測需要兩個損失函數,一個用于對象分類,另一個用于邊界框回歸(BBR)。
    的頭像 發表于 01-24 10:50 ?3090次閱讀
    對象檢測邊界框<b class='flag-5'>損失</b><b class='flag-5'>函數</b>–從IOU到ProbIOU介紹

    TensorFlow損失函數(定義和使用)詳解

    了如何實現不同類型的損失函數。那么根據手頭的回歸任務,你可以選擇相應的損失函數或設計自己的損失
    發表于 07-28 14:38

    keras常用的損失函數Losses與評價函數Metrics介紹

    ,這使得它在設置中可用作損失函數。如果&amp;#039; y_true &amp;#039;或&amp;#039; y_pred &
    發表于 08-18 06:31

    神經網絡中的損失函數層和Optimizers圖文解讀

    對于許多機器學習算法來說,最終要解決的問題往往是最小化一個函數,我們通常稱這個函數損失函數。在神經網絡里面同樣如此,損失
    的頭像 發表于 11-30 16:09 ?8304次閱讀

    機器學習經典損失函數比較

    所有的機器學習算法都或多或少的依賴于對目標函數最大化或者最小化的過程。我們常常將最小化的函數稱為損失函數,它主要用于衡量模型的預測能力。
    的頭像 發表于 06-13 17:53 ?8620次閱讀
    機器學習經典<b class='flag-5'>損失</b><b class='flag-5'>函數</b>比較

    機器學習實用指南:訓練和損失函數

    這個損失函數是合理的,因為當 $t$ 接近 0 時,$-log(t)$ 變得非常大,所以如果模型估計一個正例概率接近于 0,那么損失函數將會很大,同時如果模型估計一個負例的概率接近 1
    的頭像 發表于 06-29 15:02 ?8602次閱讀
    機器學習實用指南:訓練和<b class='flag-5'>損失</b><b class='flag-5'>函數</b>

    三種常見的損失函數和兩種常用的激活函數介紹和可視化

    從上面闡釋的步驟可以看出,神經網絡中的權重由損失函數的導數而不是損失函數本身來進行更新或反向傳播。因此,損失
    的頭像 發表于 05-05 11:42 ?7256次閱讀
    三種常見的<b class='flag-5'>損失</b><b class='flag-5'>函數</b>和兩種常用的激活<b class='flag-5'>函數</b>介紹和可視化

    深度學習的19種損失函數你了解嗎?帶你詳細了解

    損失函數通過torch.nn包實現基本用法 criterion = LossCriterion() #構造函數有自己的參數loss = criterion(x, y) #調用標準時也有參數19種
    的頭像 發表于 09-14 10:34 ?1.1w次閱讀

    計算機視覺的損失函數是什么?

    損失函數在模型的性能中起著關鍵作用。選擇正確的損失函數可以幫助你的模型學習如何將注意力集中在數據中的正確特征集合上,從而獲得最優和更快的收斂。
    的頭像 發表于 03-13 16:30 ?3604次閱讀
    計算機視覺的<b class='flag-5'>損失</b><b class='flag-5'>函數</b>是什么?

    損失函數的簡要介紹

    例如,你有一個神經網絡,通過該網絡可以獲取一些與房屋有關的數據并預測其價格。在這種情況下,你可以使用MSE(均方誤差)損失。基本上,在輸出為實數的情況下,應使用此損失函數
    的頭像 發表于 04-17 10:01 ?3660次閱讀

    機器學習和深度學習中分類與回歸常用的幾種損失函數

    本文將介紹機器學習、深度學習中分類與回歸常用的幾種損失函數,包括均方差損失 Mean Squared Loss、平均絕對誤差損失 Mean Absolute Error Loss、Hu
    的頭像 發表于 10-09 16:36 ?6307次閱讀
    機器學習和深度學習中分類與回歸常用的幾種<b class='flag-5'>損失</b><b class='flag-5'>函數</b>

    表示學習中7大損失函數的發展歷程及設計思路

    表示學習的目的是將原始數據轉換成更好的表達,以提升下游任務的效果。在表示學習中,損失函數的設計一直是被研究的熱點。損失指導著整個表示學習的過程,直接決定了表示學習的效果。這篇文章總結了
    的頭像 發表于 07-08 14:23 ?2277次閱讀

    詳細分析14種可用于時間序列預測的損失函數

    在處理時間序列預測問任務時,損失函數的選擇非常重要,因為它會驅動算法的學習過程。以往的工作提出了不同的損失
    的頭像 發表于 02-14 09:19 ?3019次閱讀

    語義分割25種損失函數綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數的全面且統一的回顧。我們提供了一種新穎的分類法,并詳細審查了這些損失函數如何在圖像分割中被定制和利用,強調了它們的重要特征和應用,并進行了系統
    的頭像 發表于 10-22 08:04 ?795次閱讀
    語義分割25種<b class='flag-5'>損失</b><b class='flag-5'>函數</b>綜述和展望

    RNN的損失函數與優化算法解析

    RNN的損失函數 RNN(循環神經網絡)在處理序列數據的過程中,損失函數(Loss Function)扮演著重要的角色,它可以測量模型在訓練中的表現,并推動模型朝著正確的方向學習。RN
    的頭像 發表于 11-15 10:16 ?613次閱讀
    视频百家乐官网信誉| 百家乐官网游戏高手| 威尼斯人娱乐棋牌| 24山来水吉凶| 百家乐官网怎么推算| 365棋牌游戏| 新濠峰百家乐的玩法技巧和规则| 百家乐仿水晶筹码| 利都百家乐官网国际娱乐网| 现金百家乐官网伟易博| 大发888,| 百家乐投注平台信誉排名| 豪享博百家乐官网的玩法技巧和规则 | 神话百家乐的玩法技巧和规则| 至尊百家乐节目单| 四方百家乐官网的玩法技巧和规则 | 真博百家乐的玩法技巧和规则 | 云顶国际网| 威尼斯人娱乐城送38| 百家乐赌场怎么玩| 百家乐仿水晶筹码| 万人迷百家乐官网的玩法技巧和规则| 百家乐官网赌博机销售| 环球百家乐官网现金网| 张掖市| 易胜博娱乐| 大发888娱乐城17| 威尼斯人娱乐欢迎您| 木棉百家乐的玩法技巧和规则 | 大发888娱乐场怎样下载| 百家乐打格式| 澳门百家乐有哪些| 赌百家乐的体会| 百家乐官网平注常赢玩法技巧| 百家乐官网方案| 百家乐官网赌博分析网| 玩百家乐官网新2娱乐城| 百家乐官网连线游戏下载| 齐齐哈尔市| 永泰县| 全椒县|