那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于醫學知識增強的基礎模型預訓練方法

CVer ? 來源:CVer ? 2023-07-07 11:10 ? 次閱讀

近年來,基于大數據預訓練的多模態基礎模型 (Foundation Model) 在自然語言理解和視覺感知方面展現出了前所未有的進展,在各領域中受到了廣泛關注。在醫療領域中,由于其任務對領域專業知識的高度依賴和其本身細粒度的特征,通用基礎模型在醫療領域的應用十分有限。因此,如何將醫療知識注入模型,提高基礎模型在具體診療任務上的準確度與可靠性,是當前醫學人工智能研究領域的熱點。 在此背景之下,上海交通大學與上海人工智能實驗室聯合團隊探索了基于醫學知識增強的基礎模型預訓練方法,發布了首個胸部 X-ray 的基礎模型,即 KAD(Knowledge-enhanced Auto Diagnosis Model)。該模型通過在大規模醫學影像與放射報告數據進行預訓練,通過文本編碼器對高質量醫療知識圖譜進行隱空間嵌入,利用視覺 - 語言模型聯合訓練實現了知識增強的表征學習。在不需要任何額外標注情況下,KAD 模型即可直接應用于任意胸片相關疾病的診斷,為開發人工智能輔助診斷的基礎模型提供了一條切實可行的技術路線。

KAD 具有零樣本(zero-shot)診斷能力,無需下游任務微調,展現出與專業醫生相當的精度;

KAD 具有開放疾病診斷(open-set diagosis)能力,可應用于胸片相關的任意疾病診斷;

KAD 具有疾病定位能力,為模型預測提供可解釋性。

研究論文《Knowledge-enhanced Visual-Language Pre-training on Chest Radiology Images》已被知名國際期刊《自然 - 通訊》(Nature Communications)接收。論文作者為張小嫚、吳超逸、張婭教授,謝偉迪教授(通訊),王延峰教授(通訊)。

論文鏈接:https://arxiv.org/pdf/2302.14042.pdf

代碼模型鏈接:https://github.com/xiaoman-zhang/KAD

模型介紹 KAD 模型的核心是利用醫學先驗知識引導基礎模型預訓練,第一階段,該研究利用醫學知識圖譜訓練一個文本知識編碼器,對醫學知識庫在隱空間進行建模;第二階段,該研究提出放射報告中提取醫學實體和實體間關系,借助已訓練的知識編碼器來指導圖像與文本對的視覺表征學習,最終實現了知識增強的模型預訓練。具體流程如圖 1 所示。

c197efd0-1c16-11ee-962d-dac502259ad0.png

圖 1:KAD 的模型架構 知識編碼器 知識編碼器的核心是在特征空間隱式地建立醫學實體之間的關系。具體來說,該研究將統一醫學語言系統 (Unified Medical Language System,UMLS) 作為醫學知識庫,如圖 1a 所示;通過對比學習訓練文本編碼器,將醫學知識注入模型,如圖 1b 所示。 知識引導的視覺表征學習 知識編碼器訓練完成后,模型在文本特征空間已經建立了醫學實體之間的關系,即可用于引導視覺表征學習。具體來說,如圖 1c 所示,基于胸片 - 報告對的數據,首先進行實體提取,得到常見疾病的集合及其標簽,該研究嘗試了三種方法:基于 UMLS 啟發式規則的實體提取、基于報告結構化工具 RadGraph 的實體提取以及基于 ChatGPT 的實體提取;在模型層面,該研究提出了基于 Transformer 架構的疾病查詢網絡(Disease Query Networks),以疾病名稱作為查詢 (query) 輸入,關注 (attend) 視覺特征以獲得模型預測結果;在模型訓練過程中,該研究聯合優化圖像 - 文本對比學習和疾病查詢網絡預測的多標簽分類損失。 經過上述兩階段的訓練,在模型使用階段,如圖 1d 所示,給定一張圖像以及查詢的疾病名稱,分別輸入圖像編碼器和知識編碼器,經過疾病查詢網絡,即可得到查詢疾病的預測。同時可以通過疾病查詢網絡得到注意力圖對病灶進行定位,增強模型的可解釋性。 實驗結果 研究團隊將僅在 MIMIC-CXR [1] 上使用圖像和報告預訓練的 KAD 模型,在多個具有不同數據分布的公開數據集上進行了系統性評測,包括 CheXpert [2], PadChest [3], NIH ChestX-ray [4] 和 CheXDet10 [5]。MIMIC-CXR 數據收集于貝斯以色列女執事醫療中心(Beth Israel Deaconess Medical Center,BIDMC)是,CheXpert 數據收集于美國斯坦福醫院(Stanford Hospital),PadChest 數據收集于西班牙圣胡醫院(San Juan Hospital),NIH ChestX-ray 和 CheXDet10 數據來自于美國國立衛生研究院(National Institutes of Health)臨床 PACS 數據庫。 (1) KAD 零樣本診斷能力與專業放射科醫生精度相當 如圖 2 所示,該研究將預訓練的 KAD 模型在 CheXpert 數據上進行評測,在其中的五類疾病診斷任務與放射科醫生進行了比較,圖中 Radiologists 表示三名放射科醫生的平均結果。KAD 在五類疾病診斷任務上的平均 MCC 超過了 Radiologists,且在其中三類疾病的診斷結果顯著優于放射科醫生,肺不張 atelectasis (KAD 0.613 (95% CI 0.567, 0.659) vs. Radiologists 0.548);肺水腫 edema (KAD 0.666 (95% CI 0.608, 0.724) vs. Radiologists 0.507);胸腔積液 pleural effusion (KAD 0.702 (95% CI 0.653, 0.751) vs. Radiologists 0.548)。該結果證實了基于知識增強的模型預訓練的有效性。

c1a3f3c0-1c16-11ee-962d-dac502259ad0.png

圖 2:KAD 在 CheXpert 數據集上與基線模型以及放射科醫生的比較 (2) KAD 零樣本診斷能力與全監督模型相當,支持開放集疾病診斷 如圖 3a 所示,在 PadChest 上的零樣本診斷性能大幅度超越此前所有多模態預訓練模型(例如 Microsoft 發布的 BioVIL [6],Stanford 發布的 CheXzero [7]),與全監督模型 (CheXNet [8]) 相當。此外,全監督的模型的應用范圍受限于封閉的訓練類別集合,而 KAD 可以支持任意的疾病輸入,在 PadChest 的 177 個未見類別的測試中,有 31 類 AUC 達到 0.900 以上,111 類 AUC 達到 0.700 以上,如圖 3b 所示。

c209d7c6-1c16-11ee-962d-dac502259ad0.png

圖 3:KAD 在 PadChest 數據集上與基線模型的比較 (3) KAD 具有疾病定位能力,為模型預測提供可解釋性 除了自動診斷能力,可解釋性在人工智能輔助醫療的作用同樣關鍵,能夠有效幫助臨床醫生理解人工智能算法的判斷依據。在 ChestXDet10 數據集上對 KAD 的定位能力進行了定量分析與定性分析。如圖 4 所示,KAD 的定位能力顯著優于基線模型。圖 5 中,紅色方框為放射科醫生提供的標注,高亮區域為模型的熱力圖,從中可以看出模型所關注的區域往往能與醫生標注區域對應上,隨著輸入圖像的分辨率增加,模型的定位能力也顯著增強。 需要強調 這是模型設計的優勢,是在無需人工病灶區域標注情況下獲得的副產品

c2850c2a-1c16-11ee-962d-dac502259ad0.png

圖 4: KAD 在 ChestXDet10 數據集上與基線模型的比較

圖 5:KAD 的定位結果可視化 總結 醫療領域的專業性,導致通用基礎模型在真實臨床診療場景下的應用十分受限。KAD 模型的提出為基于知識增強的基礎模型預訓練提供了切實可行的解決方案。KAD 的訓練框架只需要影像 - 報告數據,不依賴于人工注釋,在下游胸部 X-ray 診斷任務上,無需任何監督微調,即達到與專業放射科醫生相當的精度;支持開放集疾病診斷任務,同時以注意力圖形式提供對病灶的位置定位,增強模型的可解釋性。值得注意的是,該研究提出的基于知識增強的表征學習方法不局限于胸部 X-ray,期待其能夠進一步遷移到醫療中不同的器官、模態上,促進醫療基礎模型在臨床的應用和落地。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3667

    瀏覽量

    135243
  • 模型
    +關注

    關注

    1

    文章

    3305

    瀏覽量

    49221
  • 大數據
    +關注

    關注

    64

    文章

    8908

    瀏覽量

    137791

原文標題:Nature子刊!上海交大&上海AI Lab提出胸部X-ray疾病診斷基礎模型

文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    一文詳解知識增強的語言訓練模型

    ,在實際應用場景中效果不好。為了解決這個問題,將知識注入到PLMs中已經成為一個非常活躍的研究領域。本次分享將介紹三篇知識增強訓練語言
    的頭像 發表于 04-02 17:21 ?9722次閱讀

    【大語言模型:原理與工程實踐】大語言模型訓練

    大語言模型的核心特點在于其龐大的參數量,這賦予了模型強大的學習容量,使其無需依賴微調即可適應各種下游任務,而更傾向于培養通用的處理能力。然而,隨著學習容量的增加,對訓練數據的需求也相
    發表于 05-07 17:10

    優化神經網絡訓練方法有哪些?

    優化神經網絡訓練方法有哪些?
    發表于 09-06 09:52

    微軟在ICML 2019上提出了一個全新的通用訓練方法MASS

    專門針對序列到序列的自然語言生成任務,微軟亞洲研究院提出了新的訓練方法:屏蔽序列到序列訓練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發表于 05-11 09:19 ?3531次閱讀
    微軟在ICML 2019上提出了一個全新的通用<b class='flag-5'>預</b><b class='flag-5'>訓練方法</b>MASS

    新的訓練方法——MASS!MASS訓練幾大優勢!

    專門針對序列到序列的自然語言生成任務,微軟亞洲研究院提出了新的訓練方法:屏蔽序列到序列訓練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發表于 05-11 09:34 ?7133次閱讀
    新的<b class='flag-5'>預</b><b class='flag-5'>訓練方法</b>——MASS!MASS<b class='flag-5'>預</b><b class='flag-5'>訓練</b>幾大優勢!

    檢索增強型語言表征模型訓練

    如果有一種訓練方法可以 顯式地 獲取知識,如引用額外的大型外部文本語料庫,在不增加模型大小或復雜性的情況下獲得準確結果,會怎么樣?
    的頭像 發表于 09-27 14:50 ?2045次閱讀

    一種側重于學習情感特征的訓練方法

    transformers編碼表示)的基礎上,提岀了一種側重學習情感特征的訓練方法。在目標領域的練階段,利用情感詞典改進了BERT的訓練
    發表于 04-13 11:40 ?4次下載
    一種側重于學習情感特征的<b class='flag-5'>預</b><b class='flag-5'>訓練方法</b>

    如何向大規模訓練語言模型中融入知識

    本文關注于向大規模訓練語言模型(如RoBERTa、BERT等)中融入知識
    的頭像 發表于 06-23 15:07 ?4309次閱讀
    如何向大規模<b class='flag-5'>預</b><b class='flag-5'>訓練</b>語言<b class='flag-5'>模型</b>中融入<b class='flag-5'>知識</b>?

    利用視覺語言模型對檢測器進行訓練

    訓練通常被用于自然語言處理以及計算機視覺領域,以增強主干網絡的特征提取能力,達到加速訓練和提高模型泛化性能的目的。該
    的頭像 發表于 08-08 15:33 ?1460次閱讀

    介紹幾篇EMNLP&apos;22的語言模型訓練方法優化工作

    來自:圓圓的算法筆記 今天給大家介紹3篇EMNLP 2022中語言模型訓練方法優化的工作,這3篇工作分別是: 針對檢索優化語言模型 :優化語言模型
    的頭像 發表于 12-22 16:14 ?1023次閱讀

    基礎模型自監督訓練的數據之謎:大量數據究竟是福還是禍?

    大型語言模型如 ChatGPT 的成功彰顯了海量數據在捕捉語言模式和知識方面的巨大潛力,這也推動了基于大量數據的視覺模型研究。在計算視覺領域,標注數據通常難以獲取,自監督學習成為
    的頭像 發表于 07-24 16:55 ?593次閱讀
    基礎<b class='flag-5'>模型</b>自監督<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的數據之謎:大量數據究竟是福還是禍?

    基于生成模型訓練方法

    with Deep Generative Models,我認為是個挺強挺有趣的自監督方面的工作。DreamTeacher 用于從訓練的生成網絡向目標圖像 Backbone 進行知識蒸餾,作為一種通用的
    的頭像 發表于 08-11 09:38 ?1282次閱讀
    基于生成<b class='flag-5'>模型</b>的<b class='flag-5'>預</b><b class='flag-5'>訓練方法</b>

    混合專家模型 (MoE)核心組件和訓練方法介紹

    ) 的 Transformer 模型在開源人工智能社區引起了廣泛關注。在本篇博文中,我們將深入探討 MoEs 的核心組件、訓練方法,以及在推理過程中需要考量的各種因素。 讓我們開始吧! 簡短總結 混合專家模型 (MoEs
    的頭像 發表于 01-13 09:37 ?1422次閱讀
    混合專家<b class='flag-5'>模型</b> (MoE)核心組件和<b class='flag-5'>訓練方法</b>介紹

    大語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使模型學習到語言的通用
    的頭像 發表于 07-11 10:11 ?537次閱讀

    ai大模型訓練方法有哪些?

    AI大模型訓練方法是一個復雜且不斷發展的領域。以下是ai大模型訓練方法: 數據預處理和增強 數據清洗:去除噪聲和不完整的數據。 數據標準化:
    的頭像 發表于 07-16 10:11 ?1813次閱讀
    利高在线娱乐城| 百家乐官网游戏开发技术| 博e百娱乐城怎么样| 大发888娱乐场 注册| 百家乐号破| 百家乐园36bol在线| 百家乐赌博机销售| 新濠百家乐现金网| 百家乐国际娱乐| 风水24向| 百家乐官网群dmwd| 百家乐官网网上真钱赌场娱乐网规则| 百家乐官网换房| 百家乐官网赌博规律| 百家乐官网客户端软件| 百家乐官网台布兄弟| 网上百家乐官网投注技巧| 在线百家乐官网赌场| 百家乐官网出千原理| 肇源县| 山西省| 葡京百家乐官网技巧| 永利百家乐官网游戏| 战神百家乐官网娱乐| 百家乐官网技术交流群| 榆社县| 百家乐官网断缆赢钱| 澳门百家乐官网出千| 百家乐官网靠什么赢| 网上百家乐官网靠谱吗| 优博百家乐官网现金网| 大发888官方体育| 大发888移动版| 大发888打不开| 娱乐城网址| 365体育投注| 台南市| 百家乐官网游戏发展| 宝马会百家乐官网现金网| 乳山市| 金榜百家乐官网现金网|