統計顯示,目前用于人工智能應用的數據中心的總能耗與塞浦路斯全國的能耗相當 。但最流行的人工智能處理器——Nvidia 的 H100 和 A100 的功耗又如何呢?
微軟數據中心技術治理和戰略首席電氣工程師Paul Churnock認為,到 2024 年底,部署數以百萬計的 Nvidia H100 GPU 時,Nvidia 的 H100 GPU 的能耗將超過亞利桑那州鳳凰城所有家庭的能耗。然而,總耗電量將低于德克薩斯州休斯頓等大城市。
“這是 Nvidia 的 H100 GPU;它的峰值功耗為 700W,”Churnock 在 LinkedIn 帖子中寫道。“以 61% 的年利用率計算,相當于美國家庭平均用電量(基于 2.51 人/家庭)。Nvidia 預計 2024 年 H100 GPU 的銷量為 150萬 – 200 萬個 H100 GPU。與住宅用電相比按城市消費量計算,Nvidia 的 H100 芯片將排名第五,僅次于德克薩斯州的休斯頓,領先于亞利桑那州的菲尼克斯。”
事實上,如果年利用率為 61%,H100 GPU 每年將消耗約 3,740 千瓦時 (kWh) 的電力。假設 Nvidia 在 2023 年銷售 150 萬個 H100 GPU,在 2024 年銷售 200 萬個 H100 GPU,那么到 2024 年底將部署 350 萬個此類處理器。總共,它們每年將消耗高達 13,091,820,000 千瓦時 (kWh) 的電力,或 13,091.82 GWh。
結合實際情況來看, 格魯吉亞、立陶宛或危地馬拉等國家的年耗電量約為 13,092 GWh。雖然這個功耗量看起來相當令人震驚,但值得注意的是,AI 和 HPC GPU 的效率正在提高。因此,雖然 Nvidia 基于 Blackwell 的 B100 的功耗可能會超過 H100,但它將提供更高的性能,因此每單位功耗可以完成更多的工作。
共0條 [查看全部] 網友評論