那曲檬骨新材料有限公司

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

藍海大腦服務器全力支持NVIDIA H100 GPU

GPU視覺識別 ? 來源:GPU視覺識別 ? 作者:GPU視覺識別 ? 2022-03-31 11:47 ? 次閱讀

導語

1.GPU的價值不止體現在深度學習,在高性能計算、人工智能、生物信息、分子模擬、計算化學、材料力學、系統仿真、流體力學、機械設計、生物制藥、航空動力、地質勘探、氣候模擬等領域,算法越來越復雜,需要處理的海量數據越來越巨大,高性能計算能力就顯得尤為重要。近日為滿足GPU服務器、高性能服務器、深度學習服務器、水冷工作站、水冷服務器、液冷工作站、液冷服務器等的高速運轉,英偉達發布產品——H100 GPU。

2.隨著信息技術的快速發展,高性能服務器的需求不斷增長。為保障服務器長期可靠穩定運行,合適的散熱技術顯得至關重要。

3.基于藍海大腦超融合平臺的水冷GPU服務器及水冷GPU工作站采用綠色冷卻技術,Gluster 分布式架構設計,提供大存儲量,擁有開放融合的特性和超能運算的能力。

1 藍海大腦服務器于 NVIDIA H100 GPU

藍海大腦宣布服務器產品線全力支持最新的 NVIDIA H100 GPU。藍海大腦服務器產品在單機上最多可支持4、8甚至9個H100 GPU,可為多種人工智能場景提供超強算力、靈活的資源調度和成熟的生態支持。

搭載NVIDIA H100 GPU的藍海大腦服務器具有更強計算性能、更高的GPU間通信帶寬和創新的計算架構,支持用戶對更大、更復雜的模型進行訓練和推理。同時,搭配藍海大腦算力資源管理平臺,用戶可以更加便捷高效地使用AI集群算力資源。

據官方數據顯示,全新的NVIDIA GH100 GPU不是基于之前傳聞的臺積電 N5工藝,而是使用更先進的N4工藝。整個芯片面積814mm2,相比GA100要小,但集成800億晶體管,并采用更高頻率的設計。

完整規格的GH100 GPU規格,包含總計8個GPC圖形集群,72個TPC紋理集群,144個SM流式多處理器,共計18432個FP32 CUDA核心(與目前傳聞中AD102完整版完全吻合),專用于AI訓練的第四代張量核心TensorCore為每組SM配備4個,共計528個。顯存方面最大支持6個HBM3或HBM2e堆棧,6144bit顯存位寬,L2緩存提升到60MB,并支持第四代NVLink和PCIe Gen5。

不過,GH100是面向人工智能、數據分析等負載構建的,不是圖形處理。SXM5版和PCIe H100所使用的GH100 GPU中,只有兩個TPC具有圖形處理能力。

GH100 GPU用于兩個款式的加速卡上,分別為SXM5版和PCIe5版,SXM協議更多用在密集計算的數據中心上,規格也更高一些。大概是受制于良率,即便是高規格的SXM5版也并不是滿血的GH100核心。

H100 SXM5使用的H100 GPU規格為66個TPC紋理集群,SM數量下降到132組,而CUDA數量也下降到16896個(但相比于目前的GA100豈止于翻倍),張量核心為528個。顯存方面,H100 SXM5啟用5個HBM3堆棧,共計80GB,顯存位寬為5120Bit。L2緩存也下降到50MB,對比A100依然有25%提升。

PCIe5版的H100 CNX,集成CX7芯片,可將網絡數據以50GB/s的速度直接傳輸給GH100 GPU處理

PCIe版雖然更多用于小型企業,但是PCIe版的性能也是不容小覷。PCIe版采用進一步縮減的GH100 GPU,SM數量下降到114組,CUDA數量下降到14592個,張量核心則縮減到了456個。顯存方面,啟用的是5個HBM2e堆棧,容量與SXM5版相同,為80GB 5120Bit位寬,L2緩存大小一致。

白皮書揭露了新的H100兩款FP32算力(一般用戶可以關注的指標),132組SM/16896CUDA的SXM5版本,FP32單精度算力為60TFlops。根據CSDN一篇文章提供的公式:單精度理論峰值=FP32 cores*GPU頻率*2,可以推出工作頻率約為1775MHz。而A100加速卡的GA100核心工作頻率為1410MHz,頻率提升近26%。GeForce產品使用的GPU往往會給到更高的頻率,下一代RTX 40有望2G起步?

在算力方面,H100 SXM5對比現在的A100在多個項目中都超過200%的提升,最低的FP16半精度運算也有50%的性能提升,可謂是碾壓級。

在演講上,老黃更是直接帶來H100在三種負載下對比A100的效率提升,訓練Transformer模型從5天縮短到了19小時,而在結合英偉達多項尖端軟硬件條件下,整個模型訓練從7天縮短到了20小時,效率足足提升9倍。

藍海大腦是全球領先的AI服務器廠商,擁有豐富的AI計算產品陣列,并和AI客戶緊密合作,幫助其在語音、語義、圖像、視頻、搜索等各方面取得數量級的AI應用性能提升。

2 高性能機架式服務器散熱

隨著信息技術的快速發展,對高性能服務器的需求越來越大。為保證服務器長期可靠穩定的運行,合適的散熱技術非常重要。下面以高性能機架式服務器為研究對象,分析比較強制風冷與間接液冷下服務器的散熱效果。結果表明,在低負荷下,強制風冷與間接液冷差別不大。在高負荷下,間接液冷的散熱效果優于強制風冷。

一、研究背景

隨著信息技術的快速發展,尤其是 5G 通信技術的出現,支撐大數據運行的服務器需求不斷增長。為保障服務器穩定運行,合適的散熱技術顯得至關重要。機架式服務器是指按照工業標準可以直接安裝在 19 英寸寬機柜中的服務器。目前機架式服務器的主流散熱方式為強制風冷和間接液冷。

二、基于強制風冷的服務器散熱仿真研究

2.1 仿真邊界條件設置

一般情況下,當流體速度小于 1/3 風速時,可將流體看作不可壓縮流體,因此可將服務器內部空氣視作不可壓縮流體。服務器內部一共有 6 顆軸流式風扇,其中電源模塊單獨有一個軸流風扇冷卻。軸流風扇采用吹風散熱方式冷卻 CPU 和內存,硬盤最靠近進風口,出風口壓力設為大氣壓力,環境溫度設為 25℃。

2.2 仿真結果分析

服務器散熱效果評價指標有 CPU、內存、硬盤的最高溫度。環境溫度 25℃,忽略服務器與外界環境的輻射換熱,分別對服務器低負荷和高負荷兩種狀態進行仿真。

從圖可以看出,無論是低負荷還是高負荷,服務器內部最高溫度出現在 CPU 上,其次是內存的溫度較高,而硬盤最靠近進風口,其溫度最低。

下表為服務器主要發熱部件的溫度匯總表。在低負荷狀態下,服務器各部件的溫度均得到較好的控制,CPU 溫度低于長期運行允許的溫度值;而在高負荷狀態下,CPU 的溫度急劇上升,超過峰值允許的溫度值。

三、基于間接液冷的服務器散熱仿真研究3.1 機架式服務器液冷仿真模型建立

間接液冷機架式服務器內含電源模塊、CPU(兩個)、內存、硬盤、液冷板、水泵等部件。

液冷散熱板作為水冷系統的重要組成部分,主要是將發熱元器件產生的熱量與冷卻液充分交換。水冷系統部分如圖所示,由IGBT、水冷散熱板、鋁合金板以及鋁條安裝件組成。

一般情況下,當流體速度小于 1/3 風速時,可將流體看作不可壓縮流體,因此可將服務器內部空氣以及流道內液體視作不可壓縮流體。服務器內部一共有 4 顆軸流式風扇,其中電源模塊單獨有一個軸流風扇冷卻。軸流風扇采用吹風散熱方式冷卻CPU 和內存,硬盤最靠近進風口,出風口壓力設為大氣壓力,環境溫度設為 25℃,液冷板入口流體溫度為 25℃。

3.2 仿真結果分析

服務器散熱效果評價指標有 CPU、內存、硬盤的最高溫度。環境溫度 25℃,忽略服務器與外界環境的輻射換熱,分別對服務器低負荷和高負荷兩種狀態進行仿真。

從圖可以看出,在低負荷狀態時,最高溫度出現在內存上,當服務器處于高負荷時,服務器內部最高溫度出現在 CPU 上,其次是內存的溫度較高,而硬盤最靠近進風口,其溫度最低。

下表為服務器主要發熱部件的溫度匯總表。在低負荷狀態下,服務器各部件的溫度均得到較好的控制,CPU 溫度低于長期運行允許的溫度值;在高負荷狀態下,CPU 的溫度稍有上升,但沒超過峰值允許的溫度值。與強制風冷相比,間接液冷方式下,內存和硬盤的溫度稍有升高,這是因為減少風扇的原因;而 CPU 的溫度降低,因為水的導熱系數和比熱容等遠大于空氣的導熱系數和比熱容。因此對于高負荷的服務器,建議采用間接液冷散熱方式。

3 藍海大腦液冷散熱服務器

基于藍海大腦超融合平臺的水冷GPU服務器及水冷GPU工作站采用綠色冷卻技術,Gluster 分布式架構設計,提供大存儲量,擁有開放融合的特性和超能運算的能力。支持多塊GPU顯卡,提供出色的靜音效果和完美的溫控系統。借助 NVIDIA GPU計算卡可加快神經網絡的訓練和推理速度,更快地創作精準的光照渲染效果,提供高速視頻、圖像、聲音等處理能力,加速AI 并帶來更流暢的交互體驗。

審核編輯:湯梓紅

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4774

    瀏覽量

    129351
  • 服務器
    +關注

    關注

    12

    文章

    9303

    瀏覽量

    86061
  • 英偉達
    +關注

    關注

    22

    文章

    3847

    瀏覽量

    91970
  • H100
    +關注

    關注

    0

    文章

    31

    瀏覽量

    307
收藏 人收藏

    評論

    相關推薦

    影響服務器GPU租用價格的因素

    服務器GPU租用的價格受多種因素影響,包括GPU型號和性能、租用時長、帶寬和流量、地理位置、供應和需求以及服務質量等。下面,AI部落小編為您詳細介紹。
    的頭像 發表于 12-30 10:38 ?189次閱讀

    GPU加速云服務器怎么用的

    GPU加速云服務器是將GPU硬件與云計算服務相結合,通過云服務提供商的平臺,用戶可以根據需求靈活租用帶有
    的頭像 發表于 12-26 11:58 ?129次閱讀

    GPU服務器租用費用貴嗎

    在云計算領域,GPU服務器因其強大的計算能力和圖形處理能力,被廣泛應用于多個領域。然而,對于許多企業和個人開發者來說,GPU服務器的租用費用仍然是一個重要的考慮因素。那么,
    的頭像 發表于 12-19 17:55 ?217次閱讀

    GPU服務器租用多少錢

    GPU服務器的租用價格受多種因素影響,包括服務提供商、GPU型號和性能、實例規格、計費模式、促銷活動以及地域差異等。下面,AI部落小編為您整理GP
    的頭像 發表于 12-09 10:50 ?242次閱讀

    租用GPU服務器一般多少錢

    租用GPU服務器的費用受到多種因素的影響,包括服務器配置、租用時長、服務提供商以及市場供需狀況等。下面,AI部落小編帶您了解租用GPU
    的頭像 發表于 11-25 10:28 ?313次閱讀

    GPU服務器和傳統的服務器有什么區別

    GPU服務器與傳統的服務器在多個方面存在顯著差異,主機推薦小編為您整理發布GPU服務器和傳統的服務器
    的頭像 發表于 11-07 11:05 ?287次閱讀

    GPU服務器AI網絡架構設計

    眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU的集群架構。在上一篇文章《高性能GPU服務器AI網絡架構(上篇)》中,我們對GPU
    的頭像 發表于 11-05 16:20 ?610次閱讀
    <b class='flag-5'>GPU</b><b class='flag-5'>服務器</b>AI網絡架構設計

    英偉達H100芯片市場降溫

    隨著英偉達新一代AI芯片GB200需求的不斷攀升,其上一代明星產品H100芯片卻遭遇了市場的冷落。據業內人士透露,搭載H100服務器通常以8卡的形式進行出售或出租,而在去年,這類服務器
    的頭像 發表于 10-28 15:42 ?759次閱讀

    GPU高性能服務器配置

    GPU高性能服務器作為提升計算速度和效率的關鍵設備,在各大應用場景中發揮著越來越重要的作用。在此,petacloud.ai小編為你介紹GPU高性能服務器的配置要點。
    的頭像 發表于 10-21 10:42 ?295次閱讀

    gpu服務器與cpu服務器的區別對比,終于知道怎么選了!

    gpu服務器與cpu服務器的區別主要體現在架構設計、性能特點、能耗效率、應用場景、市場定位等方面,在以上幾個方面均存在顯著差異。CPU服務器更適合數據庫管理和企業應用,而
    的頭像 發表于 08-01 11:41 ?566次閱讀

    算力服務器為什么選擇GPU

    隨著人工智能技術的快速普及,算力需求日益增長。智算中心的服務器作為支撐大規模數據處理和計算的核心設備,其性能優化顯得尤為關鍵。而GPU服務器也進入了大眾的視野,成為高性能計算的首選。那么,為什么算力
    的頭像 發表于 07-25 08:28 ?813次閱讀
    算力<b class='flag-5'>服務器</b>為什么選擇<b class='flag-5'>GPU</b>

    新手小白怎么學GPU服務器跑深度學習?

    新手小白想用GPU服務器跑深度學習應該怎么做? 用個人主機通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實現更經濟便捷的實現GPU服務器深度學習?
    發表于 06-11 17:09

    英偉達H200和H100的比較

    英偉達H200和H100是兩款不同的AI芯片,它們各自具有獨特的特點和優勢。以下是關于這兩款芯片的一些比較。
    的頭像 發表于 03-07 15:53 ?5147次閱讀

    H100 GPU供應改善,AI市場需求依舊強勁

    值得注意的是,H100 GPU的供求關系已經緩解,且維護成本高起,部分客戶正在置換這類硬件以轉向云服務,這種轉變在過去的市場緊縮中很少見到。同時,市場上雖然有其他選擇如AMD的MI300 GP
    的頭像 發表于 02-29 16:10 ?783次閱讀

    使用NVIDIA Triton推理服務器來加速AI預測

    這家云計算巨頭的計算機視覺和數據科學服務使用 NVIDIA Triton 推理服務器來加速 AI 預測。
    的頭像 發表于 02-29 14:04 ?634次閱讀
    大发888官方hgx2dafa888gwd| 克拉克百家乐官网的玩法技巧和规则| 百家乐官网赢新全讯网| 百家乐官网游戏看路| 优博娱乐网址| 云博娱乐场| 澳门凯旋门赌场| 新建县| 澳门百家乐官网下注最低| 百家乐官网博彩技巧视频| 本溪市| 海立方百家乐官网赢钱| 百家乐官网手机版| 帝王百家乐官网的玩法技巧和规则 | 百家乐官方游戏下载| 巴比伦百家乐官网的玩法技巧和规则 | 大发888网页版体育| 百家乐闲9点| 真人百家乐出千| 百家乐官网娱乐备用网址| 至尊百家乐官网规则| 怎么赢百家乐的玩法技巧和规则| 博士百家乐现金网| 玩百家乐官网有何技巧| 百家乐官网棋牌交友| 百家乐官网手机投注| 澳门赌场招聘| 棋牌论坛| 360棋牌游戏大厅| 大发888下载 客户端| 娱乐百家乐的玩法技巧和规则| 百家乐学院教学视频| 旺财转运24妙法| 八卦24山叫什么意思是什么| 粤港澳百家乐官网娱乐场| 澳门百家乐官网必赢技巧| 免费百家乐官网在线| 百家乐官网娱乐全讯网| 百家乐官网能赢到钱吗| 金冠百家乐官网娱乐城| 百家乐官网仿水晶筹码|