迎接AI需求商機 鴻海NVIDIA GTC端出AI軟硬體解決方案
鴻海宣佈參展NVIDIA GTC 2024人工智慧開發者大會,展示與NVIDIA合作因應下世代需求的AI伺服器與液冷機櫃。圖爲現場民衆參觀Ingrasys NVDIA MGX伺服器。圖/鴻海提供
全球最大電子製造與服務商鴻海科技集團宣佈參展NVIDIA GTC 2024人工智慧開發者大會,展示與NVIDIA合作因應下世代需求的AI伺服器與液冷機櫃,以及應用在電動車的最新智能駕駛控制器解決方案。
此外,鴻海研究院人工智慧研究所開發的新世代自動駕駛軌跡預測深度學習模型「QCNet」技術,同樣會在開展首日登場與外界分享。鴻海董事長劉揚偉也出席與會NVIDIA GTC主題演講活動,親自見證AI伺服器新品的發表,並感謝NVIDIA創辦人黃仁勳在鴻海科技日(HHTD23)的站臺。
隨着生成式人工智慧(Generative AI)席捲各產業,爲滿足客戶多樣化的計算需求,提供客戶合適的人工智慧資料中心基礎設施解決方案,鴻海科技集團攜手旗下子公司鴻佰科技(Ingrasys Technology Inc.)在GTC大會展出多種AI伺服器產品,包括Ingrasys NVDIA MGX伺服器,提供市場上最多樣化的1U/2U/4U NVIDIA MGX伺服器產品組合,模組化架構提供GPU、CPU及DPU組合極高的靈活性和擴充性;搭配液冷解決方案的AI加速器GB6181,能實現高效散熱,並容納八個NVIDIA H100 Tensor Core GPU,適用於高效能的AI訓練,可支援下一代強大GPU,爲高性能人工智慧資料中心提供強大算力支援。
鴻佰在GTC大會聖荷西會議中心 (San Jose Convention Center)展區中,還端出最新世代AI數據中心液冷解決方案GB200 NVL72,搭載72個高性能NVIDIA Blackwell GPU和36個NVIDIA Grace CPU,透過第五代NVLink互連,串聯成單一大規模GPU,大幅加快大型語言模型的推論速度。爲了下一代人工智慧基礎建設需求,秀出先進液冷解決方案,包含液態對氣態的side car解決方案,和液態對液態CDU解決方案,具備有高達1300kW的強大散熱能力,能適用不同數據中心環境。
同場亮相的還有ES2100儲存系統,此NVMe-oF存儲系統採用NVIDIA Spectrum-2乙太網交換機,提供更高的吞吐量,實現極致的網路性能。其模組化和創新的無背板設計,讓使用者更換兩片交換機模組即實現輕鬆系統升級。
鴻海科技集團子公司鴻佰科技總經理丁肇邦表示,利用NVIDIA MGX平臺,我們能夠採用模組化設計,用符合成本效益的方式打造多種伺服器配置,同時縮短上市時間,滿足客戶不同加速運算需求,幫助客戶建構各種應用的人工智慧數據中心。
NVIDIA GPU 產品部門副總裁 Kaustubh Sanghani 表示,藉由NVIDIA MGX伺服器模組化參考架構,鴻海打造出一系列多元化的加速運算解決方案,將能滿足不同產業的不同需求。透過支援NVIDIA Blackwell架構的處理器、網路和軟體,鴻海集團的新一代解決方案將加速推動生成式AI運算的新時代來臨。
除了AI數據中心解決方案外,在自動駕駛領域,基於NVIDIA的Orin X處理器,打造的Smart Drive智能駕駛控制器,展示了鴻海在ADAS硬體領域的多元解決方案。根據不同的產品定位,提供Basic、Advanced和Premium三個等級的ADAS控制器,其中,Premium等級搭載兩個Orin X處理器,具有強大的運算能力,足以應對最具挑戰性的算力需求。搭載水冷散熱技術,爲系統提供穩定、高效的運行環境,確保產品性能始終如一。
在軟體方面,鴻海研究院人工智慧研究所所長慄永徽,在開展首日以「QCNet: Query-Centric Trajectory Prediction for Autonomous Driving」爲主題,對外分享研究所開發的新世代自動駕駛軌跡預測深度學習模型。這套鴻海與香港城市大學共同合作開發的QCNet技術,在自動駕駛領域裡,具備在複雜場景中同時預測多目標物未來軌跡的先進能力。