電子發(fā)燒友網(wǎng)報道(文/周凱揚)雖說最近靠著GPT大語言模型的熱度,英偉達之類的主流GPU公司賺得盆滿缽滿,但要說仗著GPU的高性能就能高枕無憂的話,也就未免有些癡人說夢了。未來隨著LLM的繼續(xù)發(fā)展,訓練與推理如果要花費同樣的硬件成本,那么即便是大廠也難以負擔。
所以不少廠商都在追求如何削減TCO(總擁有成本)的辦法,有的從網(wǎng)絡結(jié)構(gòu)出發(fā),有的從自研ASIC出發(fā)的,但收效甚微,到最后還是得花大價錢購置更多的GPU。而來自華盛頓大學和悉尼大學的幾位研究人員,在近期鼓搗出的Chiplet Cloud架構(gòu),卻有可能顛覆這一現(xiàn)狀。
TCO居高不下的因素
對于大部分廠商來說,純粹的TCO并不是他們考慮的首要因素,他們更關(guān)注的是同一性能下如何實現(xiàn)更低的TCO。當下,限制GPU在LLM推理性能上的主要因素之一,不是Tensor核心的利用率,而是內(nèi)存帶寬。
比如在更小的batch size和普通的推理序列長度下,內(nèi)存帶寬就會限制對模型參數(shù)的讀取,比如把參數(shù)從HBM加載到片上寄存器,因為全連接層中的GeMM(通用矩陣乘)計算強度不高,幾乎每次計算都需要加載新的參數(shù)。
而Chiplet Cloud為了獲得更好的TCO與性能比,選擇了片上SRAM而不是HBM的外部內(nèi)存方案,將所有模型參數(shù)和中間數(shù)據(jù)(比如K和V向量等)緩存到片上內(nèi)存中去,從而實現(xiàn)了比傳統(tǒng)的DDR、HBM2e更好的單Token TCO表現(xiàn),同時也獲得了更大的內(nèi)存帶寬。
Chiplet Cloud,作為基于chiplet的ASIC AI超算架構(gòu),正是專為LLM減少生成單個Token所需的TCO成本設計的。從他們給出的評估數(shù)據(jù)對比來看,與目前主流的GPU和TPU對比,只有Chiplet Cloud對于TCO/Token做了極致的優(yōu)化。比如在GPT-3上,32個Chiplet Cloud服務器相較32個DGX A100服務器的TCO成本改善了94倍,在PaLM 540B上,30個Chiplet Cloud服務器相較64個TPUv4芯片將TCO改善了15倍。
更靈活的Chiplet方案
為什么選擇Chiplet呢?我們先來看一個極端的堆片上內(nèi)存的例子,也就是直接選擇晶圓級的“巨芯”,比如Cerebras Systems打造的WSE-2芯片。該芯片基于7nm工藝下的一整片12英寸晶圓打造,集成了2.6萬億個晶體管,面積達到46255mm2,片上內(nèi)存更是達到了40GB。
但這樣的巨芯設計意味著高昂的制造成本,所以Chiplet Cloud的研究人員認為更大的SRAM應該與相對較小的芯片對應,這樣才能減少制造成本,所以他們選擇了chiplet的設計方式。近來流行的Chiplet方案提高了制造良率,也減少了制造成本,允許在不同的系統(tǒng)層級上進行設計的重復利用。
以臺積電7nm工藝為例,要想做到0.1/cm2的缺陷密度,一個750mm2芯片的單價是一個150mm2芯片單價的兩倍,所以Chiplet的小芯片設計成本更低。重復利用的設計也可以進一步降低成本,加快設計周期,為ASIC芯片提供更高的靈活性。
Chiplet Cloud更適合哪些廠商
雖然論文中提到了不少Chiplet Cloud的優(yōu)點,但這依然是一個尚未得到實際產(chǎn)品驗證的架構(gòu),擁有驗證實力的公司往往也只有微軟、谷歌、亞馬遜以及阿里巴巴這類具備芯片設計實力的公司。況且ASIC終究是一種特化的方案,最清楚云平臺計算負載需要哪些優(yōu)化,還得是云服務廠商自己。
-
芯片
+關(guān)注
關(guān)注
456文章
51192瀏覽量
427347 -
asic
+關(guān)注
關(guān)注
34文章
1206瀏覽量
120774 -
chiplet
+關(guān)注
關(guān)注
6文章
434瀏覽量
12632 -
LLM
+關(guān)注
關(guān)注
0文章
299瀏覽量
400
發(fā)布評論請先 登錄
相關(guān)推薦
小白學大模型:構(gòu)建LLM的關(guān)鍵步驟
![小白學大模型:構(gòu)建<b class='flag-5'>LLM</b>的關(guān)鍵步驟](https://file.elecfans.com/web2/M00/4E/DC/poYBAGLCjeiALm_WAAAYmfR7Qec474.png)
Neuchips展示大模型推理ASIC芯片
NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布
![NVIDIA TensorRT-<b class='flag-5'>LLM</b> Roadmap現(xiàn)已在GitHub<b class='flag-5'>上</b>公開發(fā)布](https://file1.elecfans.com/web3/M00/00/42/wKgZO2dH2UeALMQdAABTS5uU1Rg392.png)
Chiplet技術(shù)有哪些優(yōu)勢
什么是LLM?LLM在自然語言處理中的應用
LLM技術(shù)對人工智能發(fā)展的影響
LLM和傳統(tǒng)機器學習的區(qū)別
IMEC組建汽車Chiplet聯(lián)盟
![IMEC組建汽車<b class='flag-5'>Chiplet</b>聯(lián)盟](https://file1.elecfans.com//web1/M00/F2/E9/wKgaoWcN_3OAYBlYAAOIEbhuMJs947.jpg)
創(chuàng)新型Chiplet異構(gòu)集成模式,為不同場景提供低成本、高靈活解決方案
llm模型訓練一般用什么系統(tǒng)
LLM模型的應用領域
什么是LLM?LLM的工作原理和結(jié)構(gòu)
fpga與asic在概念上有什么區(qū)別
100%在樹莓派上執(zhí)行的LLM項目
![100%<b class='flag-5'>在</b>樹莓派上執(zhí)行的<b class='flag-5'>LLM</b>項目](https://file1.elecfans.com/web2/M00/C2/22/wKgZomXgQROAO--xAAAnB3xBLS8934.png)
評論