聯想與英偉達合作推出混合AI解決方案 提供量身定製的生成式AI
3月19日,GTC(GPU Technology Conference)2024上,聯想集團與NVIDIA宣佈合作推出全新混合人工智能解決方案,幫助企業和雲提供商獲得在人工智能時代成功所需的關鍵的加速計算能力,將人工智能從概念變爲現實。
此舉將推進聯想集團AI for All的願景,併爲下一代大規模生成式人工智能的創新架構迅速進入市場提供了支持。聯想混合解決方案已經針對運行 NVIDIA AI Enterprise軟件進行了優化,以實現安全、受支持且穩定的生產級AI,現在還將爲開發人員提供剛剛發佈的NVIDIA微服務,包括 NVIDIA NIM 和 NeMo Retriever。
在大規模高效增強人工智能工作負載方面,聯想發佈了ThinkSystem人工智能產品組合的擴展,其中包括兩款全新強大的8路NVIDIA GPU系統,這兩款系統專爲提供海量計算能力和無與倫比的能效而設計,以加速人工智能的實施。專爲生成式人工智能、自然語言處理(NLP)和大型語言模型(LLM)開發而設計,爲NVIDIA HGX人工智能計算平臺進入市場提供支持,包括NVIDIA H100和H200 Tensor Core GPU和全新的NVIDIA Grace Blackwell GB200超級芯片,以及先進的下一代NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太網網絡平臺。
聯想ThinkSystem AI服務器配備NVIDIA B200 Tensor Core GPU,將爲生成式AI的新時代提供動力。NVIDIA Blackwell架構的生成式AI引擎,以及更快的NVIDIA NVLink互連和增強的安全功能,將數據中心推向了一個新時代。B200 GPU 的實時推理能力提高了25倍,可加速萬億參數語言模型,專爲最苛刻的人工智能、數據分析和高性能計算工作負載而設計。
全新聯想ThinkSystem SR780a V3是一款採用聯想海王星液冷技術的5U 系統,電源使用效率 (PUE) 高達1.1。通過使用 CPU 和 GPU 的直接水冷以及 NVIDIA NVSwitch 技術,系統可以在不達到任何熱限制的情況下維持最大性能。
此外,新的聯想ThinkSystem SR680a V3是一款氣冷雙插槽系統,可爲配備英特爾處理器和NVIDIA GPU的複雜人工智能最大程度提供加速。高度加速的系統提供巨大的計算能力,並使用行業標準的19英寸服務器機架,允許密集的硬件配置,最大限度地提高效率,同時避免佔用過多空間。
聯想還展示了全新的PG8A0N,這是一款終極1U節點,專爲AI設計,支持NVIDIA GB200 Grace Blackwell Superchip。新的GB200芯片將爲計算的新時代提供動力。該超級芯片的實時大型語言模型(LLM)推理速度提高了45倍,總體擁有成本(TCO)降低了40倍,能耗降低了40倍。聯想將與NVIDIA密切合作,提供GB200機架系統,以增強人工智能訓練、數據處理、工程設計和模擬的能力。
從工作站到雲支持,聯想是爲 NVIDIA OVX 系統和 NVIDIA Omniverse 開發平臺提供設計、工程和支持的提供商。
全新聯想HG630N - MGX 1U—採用聯想海王星直接液冷的開放標準服務器,在支持最高性能GPU的同時降低功耗。
全新聯想HG650N - MGX 2U -高度模塊化,GPU優化的系統,採用風冷,支持行業標準機架,並支持NVIDIA GH200 Grace Hopper超級芯片部署。
全新聯想HG660X V3 - MGX 4U -該系統在風冷環境中支持多達8個600W NVIDIA GPU,是NVIDIA Omniverse和AI工作負載的理想選擇。聯想是NVIDIA MGX 4U的設計合作伙伴。
全新聯想HR650N - MGX 2U -一款高性能Arm CPU服務器,具有多核以及存儲和前置IO的靈活性,利用高能效的NVIDIAGrace CPU超級芯片並支持dpu。
聯想通過提供多達4個 NVIDIA RTX 6000 Ada Generation GPU 來增強其數據科學工作站,用於大型 AI 訓練、微調、推理和加速圖形密集型工作負載。 這通過自動化工作流程提高了人工智能開發人員的生產力。(靜靜)