人工智能芯片,太耗電了

如果您希望可以時常見面,歡迎標星收藏哦~

來源:內容由半導體行業觀察(ID:icbank)編譯自hpcwire,謝謝。

生成式人工智能將消耗全球更大一部分電力,以滿足運行應用程序所需的大量硬件需求。半導體研究公司 TechInsights 在上個月的一份研究報告中表示:“未來五年,人工智能芯片將佔全球用電量的 1.5%,佔全球能源的很大一部分。”

TechInsights 對 2025 年至 2029 年期間全球電力消耗總量爲 153,000 TWh 進行了基準測量,數據來源於美國能源信息署。

該研究公司估計,人工智能加速器將在同一時間段內消耗全球 2318 TWh 的電力,佔全球電力消耗的 1.5%。

該測量基於每塊 GPU 使用 700W 的功率,這是 Nvidia 旗艦 Hopper GPU 的功耗。Nvidia 即將推出的 GPU 名爲 Blackwell,速度更快,但功耗爲 1,200W。

TechInsights 的假設僅包括芯片消耗的電量,不包括用於生成 AI 的存儲、內存、網絡和其他組件的測量。

TechInsights 分析師歐文·羅傑斯 (Owen Rogers) 在一份研究報告中表示:“考慮到對 GPU 容量的巨大需求,以及需要投入這些昂貴資產才能帶來回報,如此高的利用率是可行的。”

綠色還是非綠色?

麥肯錫人工智能調查顯示,65% 的受訪者打算採用生成式人工智能。

爲了滿足需求,雲提供商和超大規模企業正在投資數十億美元來擴大 GPU 容量。微軟依靠 Nvidia GPU 來運行其 AI 基礎設施,而 Meta 將擁有一個相當於“近 600,000 個 H100”GPU 的計算環境,該公司表示。

據 TechInsights 稱,2023 年 Nvidia 的 GPU 出貨量約爲 376 萬塊,高於 2022 年的約 260 萬塊。

去年,Gartner 對電力消耗做出了更爲激進的預測,稱人工智能“可能消耗全球 3.5% 的電力”。Gartner 的方法尚不明確,但可能包括網絡、存儲和內存。

人工智能競賽的特點是企業提供最快的基礎設施和更好的結果。在商業領域實施人工智能的熱潮已經擾亂了長期以來的企業可持續發展計劃。

微軟、谷歌和亞馬遜正在斥資數十億美元建設配備 GPU 和 AI 芯片的大型數據中心來訓練和服務更大的模型,這增加了電力負擔。

成本挑戰

羅傑斯在研究報告中指出,雖然服務器的採購價格爲2萬美元,但企業需要考慮不斷增長的電力成本以及電網面臨的挑戰。

數據中心的設計也需要滿足人工智能的電力需求。這一需求可能取決於電網容量和備用電源容量的可用性。

能源供應商也有責任爲人工智能時代做好準備,建立電力基礎設施,包括髮電站、太陽能發電場和輸電線路。

“如果需求無法滿足,能源供應商將採取市場化方式管理產能——即提高價格以減少消耗——而不是削減產能。同樣,這可能會給人工智能技術的用戶帶來成本影響,”羅傑斯說。

美國政府的首要目標是到 2035 年實現 100% 清潔能源,這將減輕電網負擔。這也將爲更多 AI 數據中心打開大門。

能源的有效利用

人工智能消耗的電力反映了加密貨幣挖礦給電網帶來負擔的早期趨勢。根據美國能源信息署2 月份發佈的一份報告,加密貨幣挖礦約佔美國電力消耗的 2.3%。

然而,能源行業觀察人士一致認爲,與比特幣挖礦相比,人工智能可以更高效地利用能源。

Nvidia 的 AI 重點還在於高效能源利用。爲了降低功耗,Nvidia 的 GPU 採用了自己的芯片技術。該公司正在將 Hopper 上的空氣冷卻改爲液體冷卻。

Nvidia 超大規模和 HPC 計算業務副總裁兼總經理 Ian Buck 在上個月的一次投資者活動中表示:“這裡的機會是幫助他們通過固定兆瓦數據中心以儘可能低的成本獲得最大性能。”

HPC 提供商、AI 和可持續性

最近舉行的 ISC 24 超級計算會議的小組成員嘲笑 Nvidia,聲稱其 1000 瓦 GPU 是“可持續的”。

政府實驗室還表示,過去 GPU 和直接液體冷卻比 CPU 提供了更好的性能擴展。

勞倫斯利弗莫爾國家實驗室正在建造即將問世的 2 百億億次浮點超級計算機 El Capitan,它將冷卻壓力增加到 28,000 噸,另外還增加了 18,000 噸,並將當前和未來系統的電源提高到 85 兆瓦。

LLNL 首席技術官 Bronis de Supinski 在分組討論會上表示:“El Capitan 核電站的發電量將低於 40 兆瓦,大約爲 30 兆瓦,但這已經是很大的電能了。”

他承認 El Capitan 超級計算機可能不被認爲是環保的,但也應該關注在性能和功率範圍內取得的成果。例如,如果超級計算機解決了氣候問題,那麼它所消耗的能量可能是值得的。

“一臺 30 兆瓦的超級計算機?我不會告訴你這是一種可持續資源,但它可以大大解決我們想要解決的社會問題,”德蘇賓斯基說。

實驗室也在轉向可再生能源和液體冷卻。例如,液體冷卻“可節省約 50% 的冷卻能源”,LRZ 主席 Dieter Kranzlmüller 在 ISC 24 會議上表示。

可持續計算環境也在考慮碳補償、捕獲和再利用廢熱、以及再利用材料。

HPC 過去驅動未來

目前,人們正在努力提高超級計算機的能源效率,以便更好地利用人工智能處理所消耗的每一瓦電能。

在上個月的 HPE Discover 大會上,首席執行官 Antonio Neri 表示,公司正在將 Frontier 和 El Capitan 中使用的節能技術移植到搭載 Nvidia GPU 的 AI 系統中。

“HPE 擁有全球最大的水冷製造能力之一。爲什麼?因爲我們必須爲超級計算機制造它,”Neri 說。

同樣登臺的 Nvidia 首席執行官黃仁勳打趣道:“液體冷卻的未來將帶來更好的性能、更低的基礎設施成本和更低的運營成本。”

卸載AI

消費設備製造商正在大力推廣配備神經芯片的 PC 和移動設備,以實現設備上的 AI。神經芯片可以在本地運行 AI 模型,從而減輕雲端 GPU 的壓力。

蘋果提供了其設備和雲端 AI 戰略的完整願景——如果 iPhone 或 Mac 確定某項 AI 任務無法在設備上完成,它會將查詢重新路由到蘋果數據中心的雲服務器。

蘋果用戶還可以選擇在設備上運行 AI 還是通過雲端運行 AI。

微軟鼓勵在 Windows 設備中使用 AI 芯片。高通的 AI Hub 允許用戶運行基準測試,以瞭解 AI 模型在設備上的運行情況。這讓用戶可以決定是在設備上還是在雲端運行推理。

然而,目前還沒有人工智能電腦的殺手級應用能夠提供電腦將人工智能壓力轉移到雲端 GPU 上的切實例子。

https://www.hpcwire.com/2024/07/08/generative-ai-to-account-for-1-5-of-worlds-power-consumption-by-2029/

點這裡加關注,鎖定更多原創內容

*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。

今天是《半導體行業觀察》爲您分享的第3823內容,歡迎關注。

『半導體第一垂直媒體』

實時 專業 原創 深度

公衆號ID:icbank

喜歡我們的內容就點“在看”分享給小夥伴哦