英偉達最新GPU和互聯(lián)路線圖
激石Pepperstone(http://dsgkdz.com/)報道:
在計算、網(wǎng)絡(luò)和圖形發(fā)展史上,Nvidia 有許多獨特之處。但其中之一就是它目前手頭有如此多的資金,而且由于其架構(gòu)、工程和供應鏈,它在生成式人工智能市場處于領(lǐng)先地位,因此它可以隨心所欲地實施它認為可能取得進展的任何路線圖。
到 21 世紀,Nvidia 已經(jīng)是一個非常成功的創(chuàng)新者,它實際上沒有必要擴展到數(shù)據(jù)中心計算領(lǐng)域。但 HPC 研究人員將 Nvidia 帶入了加速計算領(lǐng)域,然后 AI 研究人員利用 GPU 計算創(chuàng)造了一個全新的市場,這個市場已經(jīng)等待了四十年,希望以合理的價格實現(xiàn)大量計算,并與大量數(shù)據(jù)碰撞,真正讓越來越像思考機器的東西成為現(xiàn)實。
向 Danny Hillis、Marvin Minksy 和 Sheryl Handler 致敬,他們在 20 世紀 80 年代嘗試制造這樣的機器,當時他們創(chuàng)立了 Thinking Machines 來推動 AI 處理,而不是傳統(tǒng)的 HPC 模擬和建模應用程序,以及 Yann LeCun,他當時在 AT&T 貝爾實驗室創(chuàng)建了卷積神經(jīng)網(wǎng)絡(luò)。他們既沒有數(shù)據(jù),也沒有計算能力來制造我們現(xiàn)在所知道的 AI。當時,Jensen Huang 是 LSI Logic 的董事,該公司生產(chǎn)存儲芯片,后來成為 AMD 的 CPU 設(shè)計師。就在 Thinking Machines 在 20 世紀 90 年代初陷入困境(并最終破產(chǎn))時,黃仁勛在圣何塞東側(cè)的 Denny's 與 Chris Malachowsky 和Curtis Priem 會面,他們創(chuàng)立了 Nvidia。正是 Nvidia 看到了來自研究和超大規(guī)模社區(qū)的新興人工智能機遇,并開始構(gòu)建系統(tǒng)軟件和底層大規(guī)模并行硬件,以實現(xiàn)自第一天起就一直是計算一部分的人工智能革命夢想。
這一直是計算的最終狀態(tài),也是我們一直在走向的奇點——或者可能是兩極。如果其他星球上有生命,那么生命總會進化到這樣一個地步:那個世界擁有大規(guī)模毀滅性武器,并且總會創(chuàng)造出人工智能。而且很可能是在同一時間。在那一刻之后,那個世界對這兩種技術(shù)的處理方式?jīng)Q定了它能否在大規(guī)模滅絕事件中幸存下來。
這聽起來可能不像是討論芯片制造商發(fā)展路線圖的正常開場白。事實并非如此,因為我們生活在一個有趣的時代。
在臺北舉行的年度 Computex 貿(mào)易展上,Nvidia 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官在主題演講中再次試圖將生成式人工智能革命(他稱之為第二次工業(yè)革命)置于其背景中,并一窺人工智能的未來,尤其是 Nvidia 硬件的未來。我們獲得了 GPU 和互連路線圖的預覽,據(jù)我們所知,這是直到最后一刻才列入計劃的一部分,黃仁勛和他的主題演講通常都是這樣。
革命不可避免
生成式人工智能的關(guān)鍵在于規(guī)模,黃仁勛提醒我們這一點,并指出 2022 年底的 ChatGPT 時刻之所以會發(fā)生,只有出于技術(shù)和經(jīng)濟原因。
要實現(xiàn) ChatGPT 的突破,需要大幅提高 GPU 的性能,然后在此基礎(chǔ)上增加大量 GPU。Nvidia 確實實現(xiàn)了性能,這對于 AI 訓練和推理都很重要,而且重要的是,它大大減少了生成大型語言模型響應中的 token 所需的能量。
從“Pascal” P100 GPU 一代到“Blackwell” B100 GPU 一代,八年間 GPU 的性能提升了 1053 倍,后者將于今年晚些時候開始出貨,并將持續(xù)到 2025 年。(我們知道圖表上說的是 1000 倍,但這并不準確。)
部分性能是通過降低浮點精度來實現(xiàn)的——降低了 4 倍,從 Pascal P100、Volta V100 和 Ampere A100 GPU 中的 FP16 格式轉(zhuǎn)變?yōu)?Blackwell B100s 中使用的 FP4 格式。如果沒有這種精度的降低,性能提升將只有 263 倍,而這不會對 LLM 性能造成太大影響——這要歸功于數(shù)據(jù)格式、軟件處理和硬件中的大量數(shù)學魔法。請注意,對于 CPU 市場的八年來說,這已經(jīng)相當不錯了,每個時鐘的核心性能提高 10% 到 15%,核心數(shù)量增加 25% 到 30% 都是正常的。如果升級周期為兩年,那么在同樣的八年里,CPU 吞吐量將增加 4 到 5 倍。
如上所示,每單位工作量的功耗降低是一個關(guān)鍵指標,因為如果你無法為系統(tǒng)供電,你就無法使用它。令牌的能源成本必須降低,這意味著 LLM 產(chǎn)生的每令牌能源的降低速度必須快于性能的提高。
在他的主題演講中,為了給你提供更深入的背景知識,在 Pascal P100 GPU 上生成一個 token 需要 17000 焦耳的能量,這大致相當于點亮兩個燈泡兩天,平均每個單詞需要大約三個 token。所以如果你要生成很多單詞,那就需要很多燈泡!現(xiàn)在你開始明白為什么八年前甚至不可能以能夠使其在任務(wù)上表現(xiàn)良好的規(guī)模運行 LLM。
P100 集群的耗電量超過 1000 千兆瓦時,這真是太驚人了。
黃仁勛解釋說,借助 Blackwell GPU,公司將能夠在約 10,000 個 GPU 上用大約 10 天的時間來訓練這個 GPT-4 1.8T MoE 模型。
如果人工智能研究人員和 Nvidia 沒有轉(zhuǎn)向降低精度,那么在這八年的時間里性能提升只會是 250 倍。
降低能源成本是一回事,降低系統(tǒng)成本又是另一回事。在傳統(tǒng)摩爾定律的末期,兩者都是非常困難的技巧,因為每 18 到 24 個月晶體管就會縮小一次,芯片變得越來越便宜、越來越小?,F(xiàn)在,計算復合體已經(jīng)達到光罩極限,每個晶體管都變得越來越昂貴——因此,由晶體管制成的設(shè)備本身也越來越昂貴。HBM 內(nèi)存是成本的很大一部分,先進封裝也是如此。
在 SXM 系列 GPU 插槽中(非 PCI-Express 版本的 GPU),P100 的發(fā)布價約為 5,000 美元;V100 的發(fā)布價約為 10,000 美元;A100 的發(fā)布價約為 15,000 美元;H100 的發(fā)布價約為 25,000 至 30,000 美元。B100 的預計售價在 35,000 至 40,000 美元之間——黃仁勛本人在今年早些時候接受CNBC采訪時曾表示,Blackwell 的價格是這個數(shù)字。
黃仁勛沒有展示的是,每一代需要多少 GPU 來運行 GPT-4 1.8T MoE 基準測試,以及這些 GPU 或電力在運行時的成本是多少。
在這八年中,GPU 價格上漲了 7.5 倍,但性能卻提高了 1,000 多倍。因此,現(xiàn)在可以想象使用 Blackwell 系統(tǒng)在十天左右的時間內(nèi)訓練出具有 1.8 萬億個參數(shù)的大型模型,比如 GPT-4,而兩年前 Hopper 一代剛開始時,也很難在數(shù)月內(nèi)訓練出具有數(shù)千億個參數(shù)的模型?,F(xiàn)在,系統(tǒng)成本將與該系統(tǒng)兩年的電費相當。(GPU 約占 AI 訓練系統(tǒng)成本的一半,因此購買 10,000 個 GPU 的 Blackwell 系統(tǒng)大約需要 8 億美元,運行十天的電費約為 540,000 美元。如果購買更少的 GPU,您可以減少每天、每周或每月的電費,但您也會相應增加訓練時間,這會使成本再次上漲。)
你不可能贏,但你也不能放棄。
猜猜怎么著?Nvidia 也做不到。所以就是這樣。即使 Hopper H100 GPU 平臺是“歷史上最成功的數(shù)據(jù)中心處理器”,正如黃仁勛在 Computex 主題演講中所說,Nvidia 也必須繼續(xù)努力。
附注:我們很樂意將 Hopper/Blackwell 的這次投資周期與六十年前 IBM System/360 的發(fā)布進行比較,正如我們?nèi)ツ晁忉尩哪菢?,當時 IBM 做出了至今仍是企業(yè)歷史上最大的賭注。1961 年,當 IBM 啟動其“下一個產(chǎn)品線”研發(fā)項目時,它是一家年收入 22 億美元的公司,在整個 60 年代花費超過 50 億美元。藍色巨人是華爾街第一家藍籌公司,正是因為它花費了兩年的收入和二十年的利潤來創(chuàng)建 System/360。是的,它的一些部分有些晚了,表現(xiàn)也不佳,但它徹底改變了企業(yè)數(shù)據(jù)處理的性質(zhì)。IBM 認為它可能會在 60 年代后期帶來 600 億美元的銷售額(以我們調(diào)整后的 2019 年美元計算),但他們的銷售額只有 1,390 億美元,利潤約為 520 億美元。
Nvidia 無疑為數(shù)據(jù)中心計算的第二階段掀起了更大的浪潮。那么現(xiàn)在真正的贏家可能被稱為綠色芯片公司(green chip company)嗎?
抵抗是徒勞的
無論是 Nvidia 還是其競爭對手或客戶都無法抵擋未來的引力以及生成性人工智能帶來的利潤和生產(chǎn)力承諾,而這種承諾不僅僅是在我們耳邊低語,更是在屋頂上大聲呼喊。
因此,Nvidia 將加快步伐,突破極限。憑借 250 億美元的銀行存款和今年預計超過 1000 億美元的收入,以及可能再有 500 億美元的銀行存款,它有能力突破極限,帶領(lǐng)我們走向未來。
“在這一驚人增長時期,我們希望確保繼續(xù)提高性能,繼續(xù)降低成本——訓練成本、推理成本——并繼續(xù)擴展 AI 功能以供每家公司使用。我們越提高性能,成本下降得就越厲害。”
正如我們上面所列的表格清楚表明的那樣,這是事實。
這有點難讀,所以讓我們仔細研究一下:?
在 Hopper 一代中,最初的 H100 于 2022 年推出,具有六層 HBM3 內(nèi)存,并配有一個具有 900 GB/秒端口的 NVSwitch 將它們連接在一起,并配有 Quantum X400(以前稱為 Quantum-2)InfiniBand 交換機,具有 400 Gb/秒端口和 ConnectX-7 網(wǎng)絡(luò)接口卡。2023 年,H200 升級為六層 HBM3E 內(nèi)存,具有更高的容量和帶寬,這提高了 H200 封裝中底層 H100 GPU 的有效性能。BlueField 3 NIC 也問世了,它為 NIC 添加了 Arm 內(nèi)核,以便它們可以執(zhí)行附加工作。
?2024 年,Blackwell GPU 當然會推出八層 HBM3e 內(nèi)存,并與具有 1.8 TB/秒端口的 NVSwitch 5、800 Gb/秒 ConnectX-8 NIC 以及具有 800 GB/秒端口的 Spectrum-X800 和 Quantum-X800 交換機配對。?
我們現(xiàn)在可以看到,到 2025 年,B200(上圖稱為 Blackwell Ultra)將擁有 8 堆疊 HBM3e 內(nèi)存,每疊有 12 個die高。B100 中的疊層大概是 8 堆疊,因此這應該代表 Blackwell Ultra 上的 HBM 內(nèi)存容量至少增加 50%,甚至可能更多,具體取決于所使用的 DRAM 容量。HBM3E 內(nèi)存的時鐘速度也可能更高。Nvidia 對 Blackwell 系列的內(nèi)存容量一直含糊其辭,但我們在 3 月份 Blackwell 發(fā)布會上估計,B100 將擁有 192 GB 內(nèi)存和 8 TB/秒帶寬。隨著未來的 Blackwell Ultra 的推出,我們預計會有更快的內(nèi)存,如果看到 288 GB 內(nèi)存和 9.6 TB/秒帶寬,我們也不會感到驚訝。
Nvidia 還將在 2025 年推出更高基數(shù)的 Spectrum-X800 以太網(wǎng)交換機,可能配備六個 ASIC,以創(chuàng)建無阻塞架構(gòu),就像其他交換機通常做的那樣,將總帶寬翻倍,從而使每個端口的帶寬或交換機的端口數(shù)量翻倍。
2026 年,我們將看到“Rubin” R100 GPU,它在去年發(fā)布的 Nvidia 路線圖中曾被稱為 X100,正如我們當時所說,我們認為 X 是一個變量,而不是任何東西的縮寫。事實證明確實如此。Rubin GPU 將使用 HBM4 內(nèi)存,并將有 8 個堆棧,大概每個堆棧都有 12 個 DRAM,而 2027 年的 Rubin Ultra GPU 將有 12 個 HBM4 內(nèi)存堆棧,并且可能還有更高的堆棧(盡管路線圖沒有提到這一點)。?
我們要等到 2026 年,也就是當前“Grace”CPU 的后續(xù)產(chǎn)品“Vera”CPU 問世時,Nvidia 才會推出一款更強大的 Arm 服務(wù)器 CPU。NVSwitch 6 芯片與這些芯片配對,端口速度為 3.6 TB/秒,ConnectX-9 的端口速度為 1.6 Tb/秒。有趣的是,還有一種名為 X1600 IB/以太網(wǎng)交換機的產(chǎn)品,這可能意味著 Nvidia 正在融合其 InfiniBand 和以太網(wǎng) ASIC,就像 Mellanox 十年前所做的那樣。
或者,這可能意味著 Nvidia 試圖讓我們所有人都感到好奇,只是為了好玩。2027 年還有其他跡象表明,這可能意味著超級以太網(wǎng)聯(lián)盟將完全支持 NIC 和交換機,甚至可能使用 UALink 交換機將節(jié)點內(nèi)和跨機架將 GPU 連接在一起。
屆時我們可能將會看到。?????????
掃描二維碼推送至手機訪問。
版權(quán)聲明:本文由激石Pepperstone發(fā)布,如需轉(zhuǎn)載請注明出處。