【有影】液體冷卻已是必要選擇 施耐德電機為AI資料中心做好未來準備

【有影】液體冷卻已是必要選擇 施耐德電機為AI資料中心做好未來準備

【有影】液體冷卻已是必要選擇 施耐德電機為AI資料中心做好未來準備

CNEWS匯流新聞網記者胡照鑫、陳巧紜/西班牙巴塞隆納報導

AI科技逐步導入現代人的手機、平板、電腦等終端週邊設備,讓雲端運算得資源需求越來越大,讓科技產業積極因應核心運算元件的熱設計功耗(TDP)持續攀升問題。施耐德電機關鍵電力事業部製冷創新和戰略總監Maurizio Frizziero接受《CNEWS匯流新聞網》專訪時表示,AI資料中心需要大量的GPU運作,導入液體冷卻方案已成重要選項,施耐德電機與NVIDIA共同設計推出資料中心散熱設計指標,提供業界在成本、空間等考量下做出最佳規劃。

「當單一機櫃能耗超過60kW,加入液體冷卻是唯一解方。」Maurizio Frizziero說,用於訓練大型語言模型和推理工作的AI伺服器配備GPU等加速器,機櫃需要更強大的散熱功能,要同時思考建築整體規劃,冷卻和數據中心的整體能源分配,將液體冷卻系統靈活融合空氣冷卻系統,才能有效帶走晶片運算產生的高溫,維持資料中心的最佳運作狀態。

Maurizio Frizziero表示,AI科技發展推動資料中心電力容量在5年內成長2倍,現有的空氣冷卻效率已經達到極限,以英特爾新款高效能CPU能耗達500W,以及預估NVIDIA下一代的高階GPU能耗將直逼1500W來說,液體冷卻的設計需求直線上升,施耐德電機不管對直接對晶片液冷散熱、採浸沒式冷卻,單相或兩相式規劃設計都能提供對應解決方案。

從效率角度來看,AI資料中心最好的散熱解決方案是把空氣冷卻和液體冷卻系統分開設計,但是在規劃上會更加複雜,成本也會增加許多。Maurizio Frizziero認為:「想要達成資料中心最佳散熱方案,關鍵就是仔細聆聽客戶的要求,並與生態系所有業者合作,包括終端使用者、散熱系統供應商、伺服器供應商等,共同協作完成最佳規劃。」

「當前的設計就是幫未來做好準備。」Maurizio Frizziero指出,通常一個資料中心需要18到24個月的設計和執行,才能讓這些基礎設施在設定的建築環境中良好運行,在永續前提下,讓IT基礎設施不為未來造成負擔,在設計中維持彈性空間是一大關鍵。

施耐德電機關鍵電力事業部業務發展副總裁Shaheen Meeran表示,Al模型訓練需要高度運算密集的伺服器,除了電力使用附載激增,隨著越來越多人工智慧應用進入現實世界,目前約5%的AI運行由邊緣運算執行,推算到2028年將會有近50%的人工智慧在邊緣運算運作,如何讓人工智慧協助數據中心達到更好的電力管理,雲端資料中心基礎設施管理(DCIM)解決方案更顯重要。

施耐德電機近期與NVIDIA合作,重新定義資料中心基礎設施,推動了邊緣AI與數位孿生技術的進步,協助專為AI構建資料中心空間的運營商進行擴展,相關設計針對各種應用進行了最佳化,包括數據處理、工程模擬、電子設計自動化、電腦輔助藥物設計和生成式人工智慧。

Maurizio Frizziero表示,業界與學界持續研發液體冷卻系統的能量回收,目前吸收高溫的液體還需要升壓器等協助才能回收能量,未來如果發展出可直接回收這些熱能的創新技術,對產業來說才是有利的商業模式。施耐德電機將協助企業展開零碳競賽,包括最大限度地減少能源使用並轉向再利用、減少溫室氣體排放、降低水資源浪費等,打造永續IT冷卻系統。

照片來源:施耐德電機、CNEWS匯流新聞網記者胡照鑫攝

《更多CNEWS匯流新聞網報導》

【有影】機動部署IT基礎設施 聖家堂、施耐德電機攜手完成資料中心挑戰

【有影】施耐德電機分享AI資料中心永續解方 呼籲資料中心供應鏈採用EPD

【文章轉載請註明出處】

guest

0 留言
Inline Feedbacks
View all comments