3月27日,NVIDIA發布聲明,H200已經投入市場供應。
同一天,NVIDIA發布了H200的性能評估報告,表明在與美國Meta公司的大型語言模型——LLM“Llama 2”的對比中,H200使AI導出答案的處理速度最高提升了45%。
此外,NVIDIA在3月18日的開發者大會上宣布將在年內推出性能優于H200的新一代AI半導體“B200”以及搭配B200和CPU的新品,其計算能力預計將是現有的約30倍。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
NVIDIA
+關注
關注
14文章
5076瀏覽量
103719 -
AI
+關注
關注
87文章
31513瀏覽量
270328 -
語言模型
+關注
關注
0文章
538瀏覽量
10341
發布評論請先 登錄
相關推薦
英偉達H200芯片將大規模交付
英偉達AI GPU市場迎來新動態,其H200型號上游芯片端已于第二季度下旬正式進入量產階段,預示著該產品將在第三季度后迎來大量交付。然而,英偉
進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片
2024年3月19日,[英偉達]CEO[黃仁勛]在GTC大會上公布了新一代AI芯片架構BLACKWELL,并推出基于該架構的超級芯片GB
發表于 05-13 17:16
英偉達H200性能怎么樣
英偉達H200性能卓越,集成了高性能CPU和GPU,通過高速NVLink連接,消除了傳統計算瓶頸。其配備了高達141GB的HBM3e高帶寬內
評論