那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

當前主流的大模型對于底層推理芯片提出了哪些挑戰

后摩智能 ? 來源:后摩智能 ? 2024-09-24 16:57 ? 次閱讀

隨著大模型時代的到來,AI算力逐漸變成重要的戰略資源,對現有AI芯片也提出了前所未有的挑戰:大算力的需求、高吞吐量與低延時、高效內存管理、能耗等等。

存算一體架構是可能有效解決當前芯片瓶頸的路徑之一,通過將數據存儲與處理單元集成,顯著減少了數據在芯片內部的傳輸,降低延遲和能耗,提高計算速度。

此外,針對大模型的特定需求,芯片設計也在不斷創新,以更好地支持并行處理和高效率的數據流動。這些技術發展不僅對推動人工智能領域的進步至關重要,也為芯片設計和制造業帶來了新的機遇和挑戰。

Q1?當前主流的大模型對于底層推理芯片提出了哪些挑戰?

1、算力需求:由于大模型計算量的提升,對算力的需求也飛速增長??紤]到芯片光罩面積的限制,一方面需要通過電路優化提升算力密度,另一方面需要通過先進集成等手段突破芯片面積的限制。

2、高吞吐量與低延時:大模型推理分為prefill和decoding兩個階段,兩階段的推理延遲分別影響用戶得到首個token的延遲(time to first token,TTFT)和生成階段逐token的輸出延遲(time per output token,TPOT),優化兩個階段的延遲可以提升用戶在使用推理服務時的體驗。由于prefill階段需要在單次推理處理完整的prompt輸入,是計算密集的,所以prefill階段需要通過提升芯片的算力來降低延遲。另一方面,decoding階段中,每個請求只處理一個token,是訪存密集的,因此需要提升芯片的訪存帶寬來降低延遲。

3、高效內存管理:在提供大模型推理服務時,不同用戶的請求到達時間,prompt長度,以及生成長度均不相同,所以在動態batching時不同請求間的KV Cache長度往往不同,從而導致KV Cache的碎片化問題。因此,諸如vLLM等優化KV Cache的碎片化問題的內存管理方案被提出,從而顯著提升GPU上的內存利用率。

4、能耗:對于每個sequence的生成,decoding階段每次只處理單個token,從而導致在生成的過程中需要反復搬運權重到片上緩存,產生高訪存能耗。

5、可編程性與靈活性:隨著深度學習和人工智能領域快速發展,新的算法和模型不斷涌現。芯片應具有一定的可編程性和靈活性,以適應這些變化,不僅僅針對當前的算法進行優化。

Q2?大模型時代的需求,存算一體芯片會是更優解嗎?

1、存算一體的優勢與大模型需求的契合點:CIM(Computing in Memory)具備高計算密度、高計算能效的優勢,適合大模型Prefill階段的處理。在同樣芯片面積限制下,有望提供超過當前GPU的算力。另外,對圖片、視頻等領域生成模型,算力的需求將進一步上升,CIM高算力密度的優勢可以進一步發揮。

2、方向一:近存路線:基于DRAM的近存計算架構能夠處理decoding階段訪存密集的矩陣向量乘法操作。通過在DRAM的bank附近放置處理單元,它們可以減少搬運權重的能耗,并且通過近bank處理單元的并行計算提升訪存帶寬,從而獲得推理加速。但是由于DRAM的工藝限制,近存處理單元的算力較弱,無法高效處理prefill階段的計算密集算子,因此往往需要與GPU配合工作,完成整個推理流程。

3、方向二:近存+存算路線:CIM+PIM的混合異構方案,可以同時滿足Prefill高算力和Decode高存儲帶寬和容量的需求,實現優勢互補,超過當前的同構方案。

未來,隨著技術進步和創新設計的不斷涌現,芯片技術將進一步突破現有極限,實現更低的能耗和更高的計算性能。存算一體技術也將為芯片行業提供更多創新發展路徑。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1796

    文章

    47662

    瀏覽量

    240255
  • 存算一體
    +關注

    關注

    0

    文章

    103

    瀏覽量

    4328
  • 大模型
    +關注

    關注

    2

    文章

    2545

    瀏覽量

    3161

原文標題:存算十問|(十):面向大模型時代,存算一體是更優解嗎?

文章出處:【微信號:后摩智能,微信公眾號:后摩智能】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    中國電提出模型推理加速新范式Falcon

    近日,中國電信翼支付針對大模型推理加速的最新研究成果《Falcon: Faster and Parallel Inference of Large Language Models through
    的頭像 發表于 01-15 13:49 ?124次閱讀
    中國電<b class='flag-5'>提出</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>加速新范式Falcon

    智譜GLM-Zero深度推理模型預覽版正式上線

    近日,智譜公司宣布其深度推理模型GLM-Zero的初代版本——GLM-Zero-Preview已正式上線。這款模型是智譜首個基于擴展強化學習技術訓練的推理模型,標志著智譜在AI推理領域
    的頭像 發表于 01-02 10:55 ?171次閱讀

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發表于 12-11 20:13 ?165次閱讀
    如何開啟Stable Diffusion WebUI<b class='flag-5'>模型</b><b class='flag-5'>推理</b>部署

    復旦提出模型推理新思路:Two-Player架構打破自我反思瓶頸

    在 AI 領域,近期的新聞焦點無疑是關于「Scaling Law 是否撞墻?」的辯論。這一曾經被視作大模型發展的第一性原理,如今卻遭遇了挑戰。 ? 在這樣的背景下,研究人員開始意識到,與其單純堆砌
    的頭像 發表于 12-06 11:24 ?286次閱讀
    復旦<b class='flag-5'>提出</b>大<b class='flag-5'>模型</b><b class='flag-5'>推理</b>新思路:Two-Player架構打破自我反思瓶頸

    阿里云開源推理模型QwQ

    近日,阿里云通義團隊宣布推出全新AI推理模型QwQ-32B-Preview,并同步實現了開源。這一舉措標志著阿里云在AI推理領域邁出了重要一步。 據評測數據顯示,QwQ預覽版本已具備研究生水平的科學
    的頭像 發表于 11-29 11:30 ?636次閱讀

    使用vLLM+OpenVINO加速大語言模型推理

    隨著大語言模型的廣泛應用,模型的計算需求大幅提升,帶來推理時延高、資源消耗大等挑戰。
    的頭像 發表于 11-15 14:20 ?548次閱讀
    使用vLLM+OpenVINO加速大語言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    高效大模型推理綜述

    模型由于其在各種任務中的出色表現而引起了廣泛的關注。然而,大模型推理的大量計算和內存需求對其在資源受限場景的部署提出了挑戰。業內一直在努力
    的頭像 發表于 11-15 11:45 ?570次閱讀
    高效大<b class='flag-5'>模型</b>的<b class='flag-5'>推理</b>綜述

    主流芯片架構包括哪些類型

    主流芯片架構是芯片設計領域中的核心組成部分,它們決定了芯片的功能、性能、功耗等多個方面。當前,全球范圍內
    的頭像 發表于 08-22 11:08 ?1400次閱讀

    LLM大模型推理加速的關鍵技術

    LLM(大型語言模型)大模型推理加速是當前人工智能領域的一個研究熱點,旨在提高模型在處理復雜任務時的效率和響應速度。以下是對LLM大
    的頭像 發表于 07-24 11:38 ?1009次閱讀

    如何加速大語言模型推理

    的主要挑戰。本文將從多個維度深入探討如何加速大語言模型推理過程,以期為相關領域的研究者和開發者提供參考。
    的頭像 發表于 07-04 17:32 ?638次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    。 關于大語言模型是否具備與人類“系統2”相似的能力,存在廣泛的爭議。然而,隨著模型參數量的增加和大規模預訓練的實施,大語言模型展現出了與人類相似的
    發表于 05-07 17:21

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    用于文本生成,根據提示或上下文生成連貫、富有創造性的文本,為故事創作等提供無限可能。大語言模型也面臨挑戰。一方面,其計算資源需求巨大,訓練和推理耗時;另一方面,模型高度依賴數據,需要大
    發表于 05-04 23:55

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》

    處理中預訓練架構Transformer,以及這些技術在現實世界中的如何應用。通過具體案例的分析,作者展示了大語言模型在解決實際問題中的強大能力,同時也指出了當前技術面臨的挑戰和局限性。書中對大語言
    發表于 04-30 15:35

    思爾芯如何面對大模型芯片的復雜挑戰?

    在大語言模型時代,急劇增長的底層算力需求和多樣化的創新應用催生了芯片行業的新機遇。
    的頭像 發表于 03-20 17:29 ?511次閱讀
    思爾芯如何面對大<b class='flag-5'>模型</b><b class='flag-5'>芯片</b>的復雜<b class='flag-5'>挑戰</b>?

    Groq推出大模型推理芯片 超越了傳統GPU和谷歌TPU

    Groq推出了模型推理芯片,以每秒500tokens的速度引起轟動,超越了傳統GPU和谷歌TPU。
    的頭像 發表于 02-26 10:24 ?1193次閱讀
    Groq推出大<b class='flag-5'>模型</b><b class='flag-5'>推理</b><b class='flag-5'>芯片</b> 超越了傳統GPU和谷歌TPU
    太阳百家乐官网管理网| 最大的百家乐官网网站| 大发888王博被带走| 足球百家乐网上投注| 网络百家乐官网玩法| 利德赌博| 百家乐博弈之赢者理论| 百家乐官网平注常赢玩法更| 帝王百家乐官网新足球平台| 顶尖娱乐城开户| 名仕百家乐的玩法技巧和规则| 旅百家乐官网赢钱律| 百家乐官网技巧看路| 优博| 大发888娱乐场下载com| 百家乐开过的路纸| 免水百家乐官网的玩法技巧和规则| 亚洲百家乐官网新全讯网| 鼎尊国际娱乐| 大发888娱乐城英皇国际| 在线百家乐下注| 博发百家乐游戏| 网上玩百家乐官网游戏有人挣到钱了吗| 必博百家乐官网游戏| 六合彩开奖查询| 大发888娱乐场怎样下载| 新奥博百家乐娱乐城| 百家乐官网15人桌| 七胜百家乐官网娱乐网| 百家乐官网娱乐求指点呀| 全州县| 网络龙虎| 678百家乐博彩娱乐场开户注册| 百家乐好多假网站| 送彩金百家乐官网的玩法技巧和规则 | 澳门百家乐免费开户| 三亚百家乐官网的玩法技巧和规则| 百家乐官网网络赌博网址| 免费百家乐官网规则| 欧博线上娱乐| 捕鱼棋牌游戏|