那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

采用創新的FPGA 器件來實現更經濟且更高能效的大模型推理解決方案

馬華1 ? 來源:馬華1 ? 作者:馬華1 ? 2024-06-19 15:53 ? 次閱讀

作者:Bob Siller,Achronix半導體產品營銷總監

摘要:本文根據完整的基準測試,將Achronix Semiconductor公司推出的Speedster7t FPGAGPU解決方案進行比較,在運行同一個Llama2 70B參數模型時,該項基于FPGA的解決方案實現了超越性的LLM推理處理。

采用 FPGA器件來加速LLM性能,在運行 Llama2 70B參數模型時,Speedster7t FPGA如何與 GPU解決方案相媲美?證據是令人信服的——Achronix Speedster7t FPGA通過提供計算能力、內存帶寬和卓越能效的最佳組合,在處理大型語言模型(LLM)方面表現出色,這是當今LLM復雜需求的基本要求。

像 Llama2這樣的 LLM的快速發展正在為自然語言處理(NLP)開辟一條新路線,有望提供比以往任何時候都更像人類的交互和理解。這些復雜的 LLM是創新的催化劑,推動了對先進硬件解決方案的需求,以滿足其密集處理需求。

我們的基準測試突出了 Speedster7t系列處理 Llama2 70B模型復雜性的能力,重點關注 FPGA和 LLM性能。這些測試(可根據要求提供結果)顯示了Achronix FPGA對于希望將LLM的強大功能用于其NLP應用程序的開發人員和企業的潛力。這些基準測試展示了 Speedster7t FPGA如何超越市場,提供無與倫比的性能,同時降低運營成本和環境影響。

Llama2 70B LLM運行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他們的開源 LLM,Llama2開創了 AI驅動語言處理的新先例。Llama2采用多種配置設計,以滿足各種計算需求,包括 700億、130億和 700億個參數,使其處于 LLM創新的最前沿。Achronix和我們的合作伙伴 Myrtle.ai對700億參數的Llama2模型進行了深入的基準分析,展示了使用Speedster7t FPGA進行LLM加速的優勢。

基準測試結果:Speedster7t FPGA與業界領先的 GPU對比

我們在 Speedster7t FPGA上測試了 Llama2 70B模型的推理性能,并將其與領先的 GPU進行了比較。該基準測試是通過對輸入、輸出序列長度(1,128)和批處理大小 =1進行建模來完成的。結果表明,Speedster7t AC7t1500在LLM處理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的標價。同樣,我們在此分析中使用了可比GPU卡的標價。使用這些成本信息和每秒產生的輸出令牌數量,我們計算出基于 FPGA的解決方案的 $/token提高了 200%。除了成本優勢外,在比較 FPGA和 GPU卡的相對功耗時,我們觀察到與基于 GPU的解決方案相比,產生的 kWh/token提高了 200%。這些優勢表明 FPGA如何成為一種經濟且能效高效的 LLM解決方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的優勢

Achronix Speedster7t系列FPGA旨在優化LLM操作,平衡LLM硬件的關鍵要求,包括:

高性能計算 –具有高性能計算能力的尖端硬件對于管理 LLM推理核心的復雜矩陣計算至關重要。

高帶寬內存 –高效的 LLM推理依賴于高帶寬內存,通過模型的網絡參數快速饋送數據,而不會出現瓶頸。

擴展和適應能力 –現代 LLM推理需要能夠隨著模型規模的增長而擴展并靈活適應 LLM架構的持續進步的硬件。

高能效處理 –可持續的 LLM推理需要硬件能夠最大限度地提高計算輸出,同時最大限度地降低能耗,從而降低運營成本和環境影響。

Speedster7t FPGA提供以下功能,以應對實施現代 LLM處理解決方案的挑戰:

計算性能–通過其靈活的機器學習處理器(MLP)模塊支持復雜的 LLM任務。

高 GDDR6 DRAM帶寬 –確保以 4 Tbps的內存帶寬快速處理大型 LLM數據集。

大量的 GDDR6 DRAM容量 –可容納 Llama2等擴展的 LLM,每個 FPGA的容量為 32 GB。

用于 LLM的集成 SRAM –提供低延遲、高帶寬的存儲,具有 190 Mb的 SRAM,非常適合存儲激活和模型權重。

多種本機數字格式 –適應 LLM需求,支持塊浮點(BFP)、FP16、bfloat16等。

高效的片上數據傳輸 – 2D NoC超過 20 Tbps,簡化片上數據流量。

擴展橫向擴展帶寬 –支持多達32個112 Gbps SerDes滿足 LLM需求,增強連接性。

自適應邏輯級可編程 –使用 690K 6輸入 LUT為 LLM的快速發展做好準備。

針對 LLM推理優化的 FPGA

在快速變化的人工智能和自然語言處理領域,使用 FPGA而不是 GPU來加速 LLM是一個相當新的想法。該基準測試展示了設計人員如何從使用Achronix的FPGA技術中受益。Achronix Speedster7t系列FPGA是這一變化的關鍵技術,在高性能、高帶寬存儲器、易于擴展和電源效率之間實現了出色的平衡。

基于詳細的基準分析,將 Speedster7t FPGA與領先的 GPU在處理 Llama2 70B模型方面的能力進行比較,結果表明 Speedster7t FPGA能夠提供高水平的性能,同時大大降低運營成本和環境影響,突出了它在未來 LLM創建和使用中的重要作用。

如果希望進一步了解如何使用FPGA器件來加速您的LLM程序,以及 FPGA加速 LLM解決方案的未來發展機遇。請聯系Achronix,獲取詳細的基準測試結果,并幫助您確定Achronix FPGA技術如何加速您的LLM設計。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPG
    FPG
    +關注

    關注

    1

    文章

    54

    瀏覽量

    80037
  • 大模型
    +關注

    關注

    2

    文章

    2545

    瀏覽量

    3164
收藏 人收藏

    評論

    相關推薦

    中國電信發布復雜推理模型TeleAI-t1-preview

    方面實現了顯著提升。 TeleAI-t1-preview采用了先進的強化學習訓練方法,并引入了探索、反思等思考范式,從而在數學推導、邏輯推理等復雜問題上展現了更高的準確性。這一
    的頭像 發表于 02-05 13:57 ?139次閱讀

    廣和通推出AI玩具大模型解決方案

    廣和通推出AI玩具大模型解決方案,該方案深度融合豆包等AI大模型、內置廣和通Cat.1模組,助力智能玩具實現AI化升級。該
    的頭像 發表于 01-21 10:27 ?219次閱讀

    新品| LLM630 Compute Kit,AI 大語言模型推理開發平臺

    處理器,集成了3.2TOPs@INT8算力的高能NPU,提供強大的AI推理能力,能夠高效執行復雜的視覺(CV)及大語言模型(LLM)任務,滿足各類智能應用場景的需求
    的頭像 發表于 01-17 18:48 ?139次閱讀
    新品| LLM630 Compute Kit,AI 大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>開發平臺

    IGBT模塊在頗具挑戰性的逆變器應用中提供更高能

    背景:電力驅動的能雖高,但電動汽車、數據中心、熱泵等應用仍需大量能源運行,因此提高能至關重要。 技術原理:IGBT(絕緣柵雙極晶體管)模塊是一種電力電子器件,它結合了MOSFET的
    的頭像 發表于 01-16 10:47 ?101次閱讀

    FPGA和ASIC在大模型推理加速中的應用

    隨著現在AI的快速發展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型
    的頭像 發表于 10-29 14:12 ?757次閱讀
    <b class='flag-5'>FPGA</b>和ASIC在大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速中的應用

    解決方案丨EasyGo新能源系統實時仿真應用

    添加更多的教學或創新型的實驗內容。 所有實驗均包含離線程序,控制算法實時程序,電路仿真實時程序等。其中,仿真側模型采用實時仿真器,實現1微秒的高速仿真運行;控制側
    發表于 10-18 09:37

    使用TPS2116實現建筑自動化應用的高能

    電子發燒友網站提供《使用TPS2116實現建筑自動化應用的高能.pdf》資料免費下載
    發表于 09-25 11:12 ?0次下載
    使用TPS2116<b class='flag-5'>實現</b>建筑自動化應用的<b class='flag-5'>高能</b><b class='flag-5'>效</b>

    AMD助力HyperAccel開發全新AI推理服務器

    HyperAccel 是一家成立于 2023 年 1 月的韓國初創企業,致力于開發 AI 推理專用型半導體器件和硬件,最大限度提升推理工作負載的存儲器帶寬使用,并通過將此解決方案應用于
    的頭像 發表于 09-18 09:37 ?481次閱讀
    AMD助力HyperAccel開發全新AI<b class='flag-5'>推理</b>服務器

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    今天學習大語言模型在自然語言理解方面的原理以及問答回復實現。 主要是基于深度學習和自然語言處理技術。 大語言模型涉及以下幾個過程: 數據收
    發表于 08-02 11:03

    基于瑞薩RZ/V2H AI微處理器的解決方案:高性能視覺AI系統

    RZ/V2H嵌入式AI微處理器,采用瑞薩最新的DRP-AI3技術,可提供高達8TOPS(Dense模型)/80TOPS(sparse模型)的AI推理能力,以及10 TOPS/W的
    發表于 07-02 18:36 ?600次閱讀
    基于瑞薩RZ/V2H AI微處理器的<b class='flag-5'>解決方案</b>:高性能視覺AI系統

    STM32如何詮釋電機控制創新 如何更高智能

    為了提高電機系統的效率,電機控制技術大有可為。通過采用性能更高、集成度更高的半導體器件,功能強大安全的微控制器,
    發表于 06-06 10:44 ?852次閱讀
    STM32如何詮釋電機控制<b class='flag-5'>創新</b> 如何<b class='flag-5'>更高</b>效<b class='flag-5'>更</b>智能

    多端口能量路由實時控制仿真系統解決方案

    RCP多端口設備電力電子教學產品結合CBox設備,通過MATLAB及相關硬件的模塊化設計,為解決教學內容復雜、理論與實際脫節等問題提供了一種創新解決方案。 RCP多端口設備可實現幾乎大部分經典電力
    發表于 05-10 11:05

    【大語言模型:原理與工程實踐】大語言模型的評測

    評測任務則重點評估模型在提供方法論和實踐建議方面的能力。這類任務要求模型能像經驗豐富的導師或專家那樣,為用戶提供有價值的建議和解決方案。總之,這套綜合性的評測框架為全面評估大語言模型
    發表于 05-07 17:12

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    超出預期的能力和表現。這種能力主要體現在學習能力提升、語言理解和生成能力,以及創新和探索等方面。大語言模型擁有更大的參數空間和表征能力,能學習復雜、
    發表于 05-04 23:55

    萊迪思半導體Drive?解決方案榮獲2024 BIG創新

    萊迪思半導體近日宣布其最新的萊迪思Drive?解決方案集合憑借實現高能、可擴展安全的車載體驗而榮獲2024 BIG
    的頭像 發表于 03-20 14:42 ?506次閱讀
    财神百家乐官网的玩法技巧和规则| 百家乐技巧开户网址| 皇冠网投| 杨筠松 24山| 德州扑克游戏网站| bet365提款| 百家乐官网游戏解码器| 大发888娱乐官方网站| 最好的百家乐官网游戏平台1| 广发百家乐的玩法技巧和规则| 百家乐官网视频游戏网站| 百家乐二十一点游戏| 百家乐官网梅花图标| 赌场百家乐赢钱| 百家乐官网赌牌技巧| 百家乐连跳趋势| 百家乐官网视频游戏客服| 新澳门百家乐的玩法技巧和规则| 百家乐官网最新的投注方法| 财神百家乐的玩法技巧和规则| 百家乐官网三路秘诀| 澳门百家乐论坛及玩法| 百家乐官网破解秘籍| tag博彩业| 博彩百家乐在线| 百家乐官网体育博彩| 网上的百家乐是真是假| 百家乐官网合法| 大发888注册奖金| 做生意店铺风水好吗| 泗水县| 电子百家乐技巧| 百家乐官网赌博代理荐| 现金网系统出租| 百家乐长龙有几个| 百家乐官网游戏机在哪有| 乐宝百家乐的玩法技巧和规则 | 威尼斯人娱乐网站| 梦幻城百家乐官网的玩法技巧和规则| 凉山| 百家乐追号软件|