那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用 NVIDIA IGX Orin 開發者套件在邊緣部署大語言模型

NVIDIA英偉達 ? 來源:未知 ? 2023-11-24 19:25 ? 次閱讀

隨著大語言模型(LLM)的功能日益強大,減少其計算需求的技術也日趨成熟,由此產生了兩個引人注目的問題:能夠在邊緣運行和部署的最先進的 LLM 是什么?現實世界中的應用如何才能充分利用這些成果?

即使采用較低的 FP16 精度,運行像 Llama 270b 這樣最先進的開源 LLM,也需要超過 140 GB 的 GPU 顯存(VRAM)(700 億參數 x 2 字節 = FP16 精度下的 140 GB,還要加上 KV 緩存所增加的顯存需求)。對于大多數開發者和較小的公司來說,要獲得這么大的 VRAM 并不容易。此外,無論是由于成本、帶寬、延遲還是數據隱私問題,應用程序的特定要求可能會排除使用云計算資源托管 LLM 這一選項。

NVIDIA IGX Orin 開發者套件和 NVIDIA Holoscan SDK 可應對這些挑戰,將 LLM 的強大功能帶到邊緣。NVIDIA IGX Orin 開發者套件可提供一個滿足工業和醫療環境需求的工業級邊緣 AI 平臺。內置的 NVIDIA Holoscan 是一套能夠協調數據移動、加速計算、實時可視化和 AI 推理的 SDK。

該平臺讓開發者能夠將開源 LLM 添加到邊緣 AI 流式傳輸工作流和產品中,為實時 AI 傳感器處理帶來了新的可能性,同時確保敏感數據保持在 IGX 硬件的安全邊界內。

適用于實時流式傳輸的開源 LLM

近來開源 LLM 的快速發展已經改變了人們對實時流式傳輸應用可能性的看法。之前,人們普遍認為,任何需要類似人類能力的應用,都只能由數據中心規模的企業級 GPU 驅動的閉源 LLM 實現。但由于近期新型開源 LLM 的性能暴漲,Falcon、MPT、Llama 2 等模型現在已經可以替代閉源黑盒 LLM。

有許多可能的應用可以利用這些邊緣的開源模型,其中大多都涉及到將流式傳輸傳感器數據提煉為自然語言摘要。可能出現的應用有:讓家屬隨時了解手術進展的手術實時監控視頻、為空中交通管制員匯總最近的雷達交流情況,以及將足球比賽的實況解說轉換成另一種語言。

隨著強大開源 LLM 的出現,一個致力于提高這些模型準確性,并減少運行模型所需計算量的社群應運而生。這個充滿活力的社群活躍在“Hugging Face 開放式 LLM 排行榜”上,該排行榜經常會更新最新的頂尖性能模型。

豐富的邊緣 AI 功能

NVIDIA IGX Orin 平臺在利用激增的可用開源 LLM 和支持軟件方面具有得天獨厚的優勢。

強大的 Llama 2 模型有 NVIDIA IGX Orin 平臺安全措施的加持,并可以無縫集成到低延遲的 Holoscan SDK 管道中,因此能夠應對各種問題和用例。這一融合不僅標志著邊緣 AI 能力的重大進步,而且釋放了多個領域變革性解決方案的潛力。

其中一個值得關注的應用能夠充分利用新發布的 Clinical Camel,這是一個經過微調的 Llama 2 70B 模型變體,專門用于醫學知識研究。基于該模型創建本地化的醫療聊天機器人,可確保敏感的患者數據始終處于 IGX 硬件的安全邊界內。對隱私、帶寬或實時反饋要求極高的應用程序是 IGX 平臺真正的亮點所在。

想象一下,輸入患者的病歷,并向機器人查詢類似病例,獲得有關難以診斷的患者的新洞察,甚至為醫療專業人員篩選出不會與當前處方產生相互作用的藥物——所有這些都可以通過 Holoscan 應用實現自動化。該應用可將醫患互動的實時音頻轉換成文本,并將其無縫地輸入到 Clinical Camel 模型中。

wKgZomVgiT2ARiLjAAUzcHkqaho927.png

圖 1. Clinical Camel 模型

根據示例對話生成的臨床筆記

NVIDIA IGX 平臺憑借對低延遲傳感器輸入數據的出色優化,將 LLM 的功能擴展到純文本應用之外。醫療聊天機器人已經足以展現出它的強大,而 IGX Orin 開發者套件更強大的地方在于,它能夠無縫集成來自各種傳感器的實時數據。

IGX Orin 專為邊緣環境打造,可以處理來自攝像頭、激光雷達傳感器、無線電天線、加速度計、超聲探頭等的流信息。這一通用性使各種先進的應用能夠無縫地將 LLM 的強大功能與實時數據流融合。

在集成到 Holoscan 操作系統后,這些 LLM 可顯著增強 AI 傳感器處理管道的能力和功能。具體示例如下:

多模態醫療助手增強 LLM 的能力,使其不僅能夠解釋文本,還能解釋醫學影像,如 Med-Flamingo 等項目所驗證的那樣,它能解釋核磁共振、X 射線和組織學影像。

wKgZomVgiT2AX0CsAAJlPyGi_4g552.png

圖 2. LLM 可解釋文本

并從醫學影像中獲得相關洞察

信號情報(SIGINT):通信系統和雷達捕獲的實時電子信號中獲得自然語言摘要,提供銜接技術數據與人類理解的深入洞察。

手術病例記錄生成:將內窺鏡視頻、音頻、系統數據和患者記錄傳輸到多模態 LLM 中,生成綜合全面的手術病例,并自動上傳到患者的電子病歷中。

智慧農業:使用土壤傳感器監測 pH 值、濕度和營養水平,使 LLM 能夠為優化種植、灌溉和病蟲害防治策略提供可操作的深入洞察。

用于教育、故障診斷或提高生產力的軟件開發助手是 LLM 的另一個新穎用例。這些模型可以幫助開發者開發更高效的代碼和詳盡的文檔。

Holoscan 團隊最近發布了 HoloChat,這個 AI 驅動的聊天機器人在 Holoscan 的開發過程中充當開發者的“助手”。它能對有關 Holoscan 和編寫代碼的問題做出類似人類的回答。詳情請訪問GitHub上的nvidia-holoscan/holohub:https://github.com/nvidia-holoscan/holohub/tree/main/applications/holochat_local

HoloChat 的本地托管模式旨在為開發者提供與常見的閉源聊天機器人相同的優勢,同時杜絕了將數據發送到第三方遠程服務器處理所帶來的隱私和安全問題。

通過模型量化

實現最佳精度與內存使用

隨著大量開源模型通過 Apache 2、MIT 和商業許可發布,任何人都可以下載并使用這些模型權重。但對絕大多數開發者來說,“可以”并不意味著“可行”。

模型量化提供了一種解決方案。通過用低精度數據類型(int8 和 int4)來表示權重和激活值,而不是高精度數據類型(FP16 和 FP32),模型量化減少了運行推理的計算和內存成本。

然而,從模型中移除這一精度確實會導致模型的準確性下降。但研究表明,在內存預算既定的情況下,當參數以 4 位精度存儲時,使用盡可能大且與內存匹配的模型才能實現最佳的 LLM 性能。更多詳情,參見 4 位精度案例:k 位推理縮放法則:https://arxiv.org/abs/2212.09720

因此,Llama 2 70B 模型在以 4 位量化實施時,達到了精度和內存使用之間的最佳平衡,將所需的 RAM 降低至 35 GB 左右。對于規模較小的開發團隊甚至個人來說,這一內存需求是可以達到的。

開源 LLM 打開新的開發機遇

由于能夠在商用硬件上運行最先進的 LLM,開源社區中出現了大量支持本地運行的新程序庫,并提供能夠擴展這些模型功能的工具,而不僅僅是預測句子的下一個單詞。

您可以通過 Llama.cpp、ExLlama 和 AutoGPTQ 等程序庫量化自己的模型,并在本地 GPU 上快速運行推理。不過,是否量化模型完全取決于您自己的選擇,因為 HuggingFace.co/models 中有大量量化模型可供使用。這在很大程度上要歸功于像 /TheBloke 這樣的超級用戶,他們每天都會上傳新的量化模型。

這些模型本身就帶來了令人興奮的開發機會,更不用說還能使用大量新建程序庫中的附加工具來對其進行擴展,使它們更加強大。例如:

  • LangChain:一個在 GitHub 上獲得 58,000 顆星評分的程序庫,提供從實現文檔問答功能的矢量數據庫集成,到使 LLM 能夠瀏覽網頁的多步驟代理框架等所有功能。

  • Haystack:支持可擴展的語義搜索。

  • Magentic:可將 LLM 輕松集成到您的 Python 代碼中。

  • Oobabooga:一個用于在本地運行量化 LLM 的網絡用戶界面。

只要您有 LLM 用例,就可以使用一個開源庫來提供您所需的大部分功能。

開始在邊緣部署 LLM

使用 NVIDIA IGX Orin 開發者套件在邊緣部署最先進的 LLM,可以解鎖尚未被挖掘的開發機會。如要開始部署,請先查看"使用 IGX Orin 在邊緣部署 Llama 2 70B 模型"綜合教程,其詳細介紹了在 IGX Orin 上創建簡單聊天機器人應用:https://github.com/nvidia-holoscan/holohub/tree/main/tutorials/local-llama

教程演示了如何在 IGX Orin 上無縫集成 Llama 2,并指導您使用 Gradio 開發 Python 應用。這是使用本文中提到的任何優質 LLM 庫的第一步。IGX Orin 提供的彈性、非凡性能和端到端的安全性,使開發者能夠圍繞在邊緣運行的先進 LLM,構建創新的 Holoscan 優化應用。

GTC 2024 將于 2024 年 3 月 18 至 21 日在美國加州圣何塞會議中心舉行,線上大會也將同期開放。點擊“閱讀原文”掃描下方海報二維碼,立即注冊 GTC 大會


原文標題:使用 NVIDIA IGX Orin 開發者套件在邊緣部署大語言模型

文章出處:【微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3847

    瀏覽量

    91968

原文標題:使用 NVIDIA IGX Orin 開發者套件在邊緣部署大語言模型

文章出處:【微信號:NVIDIA_China,微信公眾號:NVIDIA英偉達】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA Jetson Orin Nano開發者套件的新功能

    生成式 AI 領域正在迅速發展,每天都有新的大語言模型(LLM)、視覺語言模型(VLM)和視覺語言動作
    的頭像 發表于 12-23 12:54 ?327次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson <b class='flag-5'>Orin</b> Nano<b class='flag-5'>開發者</b><b class='flag-5'>套件</b>的新功能

    NVIDIA發布小巧高性價比的Jetson Orin Nano Super開發者套件

    NVIDIA近期推出了一款全新的生成式AI超級計算機——Jetson Orin Nano Super開發者套件。這款開發者
    的頭像 發表于 12-19 11:28 ?594次閱讀

    NVIDIA 推出高性價比的生成式 AI 超級計算機

    Jetson Orin Nano Super 可將生成式 AI 性能提升至1.7 倍,支持科技愛好開發者和學生使用的主流模型。 ? ? NVID
    發表于 12-18 17:01 ?478次閱讀
    <b class='flag-5'>NVIDIA</b> 推出高性價比的生成式 AI 超級計算機

    Arm推出GitHub平臺AI工具,簡化開發者AI應用開發部署流程

    軟件提供了無縫的開發體驗。 GitHub Actions、原生 GitHub 運行器和基于 Arm 平臺的 AI 框架相結合,幫助全球 2,000 萬開發者簡化 AI 應用開發部署流程。
    的頭像 發表于 10-31 18:51 ?2894次閱讀

    Orin芯片的編程語言支持

    語言支持 Orin芯片支持多種編程語言,以滿足不同開發者的需求。其中,C/C++和Python是兩種廣泛應用的編程語言。C/C++以其高效和
    的頭像 發表于 10-27 16:45 ?414次閱讀

    NVIDIA RTX AI套件簡化AI驅動的應用開發

    NVIDIA 于近日發布 NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應用開發者定制、優化和部署適用于
    的頭像 發表于 09-06 14:45 ?520次閱讀

    Mistral AI與NVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AI 和 NVIDIA 于近日共同發布了一款全新的領先語言模型Mistral NeMo 12B。開發者可以輕松定制和部署
    的頭像 發表于 07-27 11:04 ?718次閱讀

    基于AX650N/AX630C部署端側大語言模型Qwen2

    本文將分享如何將最新的端側大語言模型部署到超高性價比SoC上,向業界對端側大模型部署開發者提供
    的頭像 發表于 07-06 17:43 ?3794次閱讀
    基于AX650N/AX630C<b class='flag-5'>部署</b>端側大<b class='flag-5'>語言</b><b class='flag-5'>模型</b>Qwen2

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持

    美敦力、SETI 協會以及領先制造商正在構建 NVIDIA IGX 系統,為 AI 工業邊緣賦能。 ? NVIDIA 于6月2日宣布,集成
    的頭像 發表于 06-04 10:21 ?565次閱讀

    NVIDIA將全球數百萬開發者轉變為生成式 AI 開發者

    和測試 ? NVIDIA 于今日宣布,全球 2,800 萬開發者現可下載NVIDIA NIM——一種推理微服務,通過經優化的容器的形式提供模型——以
    的頭像 發表于 06-03 18:21 ?1082次閱讀

    NVIDIA 通過 Holoscan 為 NVIDIA IGX 提供企業軟件支持,實現邊緣實時醫療、工業和科學 AI 應用

    醫療、工業和科學計算領域的解決方案提供商利用企業級軟件和支持來加快開發部署邊緣 AI 解決方案。 ? NVIDIA AI Enterprise-I
    發表于 06-03 09:48 ?338次閱讀
      <b class='flag-5'>NVIDIA</b> 通過 Holoscan 為 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>IGX</b> 提供企業軟件支持,實現<b class='flag-5'>邊緣</b>實時醫療、工業和科學 AI 應用

    NVIDIA NIM 革命性地改變模型部署,將全球數百萬開發者轉變為生成式 AI 開發者

    部署云、數據中心或工作站上。借助 NVIDIA NIM,開發者能夠輕松地為 copilots、聊天機器人等構建生成式 AI 應用,所需時間從
    發表于 06-03 09:12 ?262次閱讀
    <b class='flag-5'>NVIDIA</b> NIM 革命性地改變<b class='flag-5'>模型</b><b class='flag-5'>部署</b>,將全球數百萬<b class='flag-5'>開發者</b>轉變為生成式 AI <b class='flag-5'>開發者</b>

    NVIDIA與微軟擴展合作,幫助開發者更快構建和部署AI應用

    NVIDIA Microsoft Build 開發者大會上展示了與 Microsoft Azure 和 Windows PC 的集成解決方案,簡化了 AI 模型
    的頭像 發表于 05-23 10:14 ?474次閱讀

    英特爾開發套件『哪吒』Java環境實現ADAS道路識別演示 | 開發者實戰

    本文使用來自OpenModelZoo的預訓練的road-segmentation-adas-0001模型。ADAS代表高級駕駛輔助服務。該模型識別四個類別:背景、道路、路緣和標記。硬件環境此文使用了英特爾開發套件家族里的『哪吒』
    的頭像 發表于 04-29 08:07 ?678次閱讀
    英特爾<b class='flag-5'>開發套件</b>『哪吒』<b class='flag-5'>在</b>Java環境實現ADAS道路識別演示 | <b class='flag-5'>開發者</b>實戰

    【轉載】英特爾開發套件“哪吒”快速部署YoloV8 on Java | 開發者實戰

    部署到生產系統中。通過簡化的開發工作流程,OpenVINO可賦能開發者現實世界中部署高性能應用程序和算法。 今天我們將基于哪吒
    的頭像 發表于 03-23 08:05 ?643次閱讀
    【轉載】英特爾<b class='flag-5'>開發套件</b>“哪吒”快速<b class='flag-5'>部署</b>YoloV8 on Java | <b class='flag-5'>開發者</b>實戰
    百家乐官网单跳| 基础百家乐官网规则| 王牌百家乐官网的玩法技巧和规则 | HG百家乐大转轮| 亚洲百家乐官网新全讯网| 网上百家乐赌场娱乐网规则| 百家乐起步多少| 大发888娱乐场下载 17| 大玩家娱乐城开户| 百家乐官网赚钱方| 百家乐大轮转| 优博国际娱乐城| 百家乐官网赌博租| 威尼斯人娱乐城吃饭| 百家乐官网娱乐城玩法| 开心8百家乐现金网| 大发888优惠码| 网络百家乐官网的信誉| 新2百家乐娱乐城| 博久网| 百家乐官网赢钱好公式| 游戏机百家乐作弊| 大发888娱乐吧| 赤壁百家乐官网娱乐城| 状元百家乐的玩法技巧和规则| 缅甸百家乐官网论坛| 百家乐3带厂家地址| 棋牌室管理制度| 百家乐官网在线娱乐网| 优博百家乐的玩法技巧和规则| 百家乐官网五式缆投法| 网上百家乐正规代理| 百家乐官网赌场在线娱乐| 百家乐必知技巧| 百家乐官网怎么看门路| 百家乐赌机厂家| 沙龙娱乐| 百家乐冯式打法| 足球开户| 五星百家乐官网的玩法技巧和规则| 大发888娱乐城 手机版|