鴻海旗下鴻佰出席OCP全球峰會 展示最新液冷運算方案
GB200 AI伺服器機櫃。鴻海/提供
全球IT雲基礎設施解決方案領導者鴻海(2317)旗下鴻佰科技,今日出席在美國加州聖約瑟會議中心所舉行的2024年開放運算計劃全球峰會(OCP),展示其全面集成的AI產品線,爲未來AI資料中心賦能,參與全球科技業對硬體和軟體開源的突破性進展,鴻海旗下工業富聯董事長兼CEO鄭弘孟亦受邀在活動中發表公開演說。
作爲新一代液冷解決方案先驅,鴻佰提供從伺服器到機櫃乃至資料中心集成的全面創新,以提升現代資料中心的能源效率和服務效能。鴻佰展示的NVIDIA HGX B200液冷AI加速器提供強大AI訓練效能,可無縫完美整合至OCP ORv3機架中,並部署於客戶的資料中心。
活動期間,鴻佰還展出NVIDIA GB200 NVL72與水對水CDU解決方案。GB200 NVL72是專爲兆級參數大語言模型(LLM, Large Language Model)訓練和即時推論設計的液冷機櫃,相當於擁有72個NVLink連接的Blackwell Tensor 核心 GPU的巨型GPU。此設計幫助企業及組織得以充分發揮AI潛能,推動各領域創新應用。而高效能水對水CDU解決方案則提供卓越冷卻能力,可支援多達10臺GB200 NVL72,爲下一代AI資料中心的發展奠定堅實基礎。
此外,在現場還可以看到鴻佰的最新超級運算中心模型,展望未來AI基礎設施的發展趨勢。該設施實際部署以GB200 NVL72叢集爲主,規劃總計超過1000個GPU,旨在應對未來最嚴苛的AI工作負載。這個中心專注於AI效能調校及最佳化,充分彰顯鴻佰在推動AI尖端創新方面的堅定承諾。
鴻海董事長劉揚偉之前表示,基於輝達Blackwell架構伺服器(GB200)需求強勁,以及地緣政治因素之下,鴻海正在墨西哥打造全球最大的GB200伺服器生產基地,這是個非常特別的工廠,他不便透露相關細節,但該廠產能「非常巨大」,他只能用「巨大」這樣定性的方式來描述,但定量的描述還是需要輝達來說明。
由於輝達執行長黃仁勳近期表示「Blackwell需求很瘋狂」,劉揚偉則迴應說,就像他所說的,目前demand crazy,但後續也要看輝達的供需要如何怎麼進行,我們就要相應調整產能來支應其需求。
輝達執行長黃仁勳親筆簽名「TO A NEW AGE OF COMPUTING」。鴻海/提供
NVIDIA GB200 NVL72開啓AI算力新紀元。鴻海/提供