作為人工智能領(lǐng)域的領(lǐng)軍企業(yè),英偉達(dá)有著強(qiáng)大的技術(shù)實(shí)力和廣泛的應(yīng)用場(chǎng)景,在過(guò)去一年中,生成式 AI 的需求爆發(fā)為其帶來(lái)了巨大的增長(zhǎng)機(jī)遇。
根據(jù)富國(guó)銀行的統(tǒng)計(jì),英偉達(dá)目前在數(shù)據(jù)中心 AI 市場(chǎng)擁有 98% 的市場(chǎng)份額,而 AMD 僅有 1.2% 的市場(chǎng)份額,英特爾則只有不到 1%。
由于英偉達(dá)的 AI 芯片價(jià)格高昂,且存在著供應(yīng)不足的問(wèn)題,這也迫使一些客戶(hù)希望選擇其他的替代產(chǎn)品。在競(jìng)爭(zhēng)對(duì)手林立的同時(shí),英偉達(dá)也正不斷推動(dòng)產(chǎn)品研發(fā)和加快更新迭代速度。
近日,servethehome 披露了英偉達(dá)的數(shù)據(jù)中心產(chǎn)品路線(xiàn)圖,展示了英偉達(dá)面向人工智能市場(chǎng)的產(chǎn)品規(guī)劃,將推出 H200、B100 和 X100 等多款 GPU。
英偉達(dá)正計(jì)劃增加面向數(shù)據(jù)中心市場(chǎng)的產(chǎn)品種類(lèi),推出多款面向 AI 計(jì)算和 HPC 的產(chǎn)品,讓不同的客戶(hù)可以有針對(duì)性購(gòu)買(mǎi)產(chǎn)品,降低購(gòu)買(mǎi)芯片難度。通過(guò)架構(gòu)圖可以看到,未來(lái)英偉達(dá)將會(huì)對(duì)基于 Arm 架構(gòu)的產(chǎn)品和基于 x86 架構(gòu)的產(chǎn)品分開(kāi)。
H200:2024 年第二季度開(kāi)始供貨
2023 年 11 月 13 日,英偉達(dá)宣布推出 NVIDIA HGX H200,為全球領(lǐng)先的 AI 計(jì)算平臺(tái)帶來(lái)強(qiáng)大動(dòng)力。該平臺(tái)基于 NVIDIA Hoppe 架構(gòu),配備 NVIDIA H200 Tensor Core GPU 和高級(jí)內(nèi)存,可處理生成 AI 和高性能計(jì)算工作負(fù)載的海量數(shù)據(jù)。H200 將于 2024 年第二季度開(kāi)始向全球系統(tǒng)制造商和云服務(wù)提供商供貨。
NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 具有更快、更大的內(nèi)存,可加速生成式 AI 和大型語(yǔ)言模型,同時(shí)推進(jìn) HPC 工作負(fù)載的科學(xué)計(jì)算。借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 內(nèi)存,與前身 NVIDIA A100 相比,容量幾乎翻倍,帶寬增加 2.4 倍。
英偉達(dá)表示,H200 可以部署在各種類(lèi)型的數(shù)據(jù)中心中,包括本地、云、混合云和邊緣。
L40S:2023 年秋季推出
L40S 是英偉達(dá)最強(qiáng)大的 GPU 之一,其在 2023 年推出,其旨在處理下一代數(shù)據(jù)中心工作負(fù)載:生成式 AI、大型語(yǔ)言模型(LLM)推理和訓(xùn)練,3D 圖形渲染、科學(xué)模擬等場(chǎng)景。
與前一代 GPU(如 A100 和 H100)相比,L40S 在推理性能上提高了高達(dá) 5 倍,在實(shí)時(shí)光線(xiàn)追蹤(RT)性能上提高了 2 倍。內(nèi)存方面,它配備 48GB 的 GDDR6 內(nèi)存,還加入了對(duì) ECC 的支持,在高性能計(jì)算環(huán)境中維護(hù)數(shù)據(jù)完整性還是很重要的。
L40S 配備超過(guò) 18,000 個(gè) CUDA 核心,這些并行處理器是處理復(fù)雜計(jì)算任務(wù)的關(guān)鍵。L40S 更注重可視化方面的編解碼能力,而 H100 則更專(zhuān)注于解碼。盡管 H100 的速度更快,但價(jià)格也更高。
GH200/GH200NVL:2024 年第二季度投產(chǎn)
2023 年 8 月,英偉達(dá)宣布推出新一代 GH200 Grace Hopper 超級(jí)芯片,新芯片將于 2024 年第二季投產(chǎn)。
NVIDIA GH200,結(jié)合了 H200 GPU 和 Grace CPU,將 Hopper 架構(gòu) GPU 和 Arm 架構(gòu) Grace CPU 結(jié)合,使用了 NVLink-C2C 將兩者連接起來(lái)。每個(gè) Grace Hopper Superchip 包含了 624GB 的內(nèi)存,其中有 144GB 的 HBM3e 和 480GB 的 LPDDR5x 內(nèi)存。
GH200 和 GH200NVL 將使用基于 Arm 的 CPU 和 Hopper 解決大型語(yǔ)言模型的訓(xùn)練和推理問(wèn)題。GH200NVL 采用了 NVL 技術(shù),具有更好的數(shù)據(jù)傳輸速度。
此外,「B」系列 GPU 也有望在 2024 年下半年推出,替代之前的第九代 GPU Hopper。
B100、B40、GB200、GB200NVL 也將在 2024 推出
英偉達(dá)計(jì)劃推出用基于 x86 架構(gòu)的 B100 接替 H200,計(jì)劃用基于 ARM 架構(gòu)的推理芯片 GB200 替代 GH200。此外,英偉達(dá)也規(guī)劃了 B40 產(chǎn)品來(lái)替代 L40S,以提供更好的面向企業(yè)客戶(hù)的 AI 推理解決方案。
根據(jù)英偉達(dá)公布的信息,該公司計(jì)劃于 2024 年發(fā)布 Blackwell 架構(gòu),而采用該架構(gòu)的 B100 GPU 芯片預(yù)計(jì)將大幅提高處理能力,初步評(píng)估數(shù)據(jù)表明,與現(xiàn)有采用 Hopper 架構(gòu)的 H200 系列相比,性能提升超過(guò) 100%。這些性能提升在 AI 相關(guān)任務(wù)中尤為明顯,B100 在 GPT-3 175B 推理性能基準(zhǔn)測(cè)試中的熟練程度就證明了這一點(diǎn)。
X100 計(jì)劃 2025 年發(fā)布
英偉達(dá)還披露了 X100 芯片的計(jì)劃,計(jì)劃于 2025 年發(fā)布,該芯片將擴(kuò)大產(chǎn)品范圍,包括企業(yè)用途的 X40 和 GX200,在 Superchip 配置中結(jié)合 CPU 和 GPU 功能。同樣,GB200 預(yù)計(jì)將效仿 B100,融入超級(jí)芯片概念。
從英偉達(dá)的產(chǎn)品路線(xiàn)來(lái)看,在未來(lái) 1-2 年,AI 芯片市場(chǎng)將再次天翻地覆。
在英偉達(dá)占據(jù)絕對(duì)地位的 AI 芯片領(lǐng)域中,AMD 是為數(shù)不多具備可訓(xùn)練和部署 AI 的高端 GPU 公司之一,業(yè)界將其定位為生成式 AI 和大規(guī)模 AI 系統(tǒng)的可靠替代者。AMD 與英偉達(dá)展開(kāi)競(jìng)爭(zhēng)的戰(zhàn)略之一,就包括功能強(qiáng)大的 MI300 系列加速芯片。當(dāng)前,AMD 正在通過(guò)更強(qiáng)大的 GPU、以及創(chuàng)新的 CPU+GPU 平臺(tái)直接挑戰(zhàn)英偉達(dá) H100 的主導(dǎo)地位。
AMD 最新發(fā)布的 MI300 目前包括兩大系列,MI300X 系列是一款大型 GPU,擁有領(lǐng)先的生成式 AI 所需的內(nèi)存帶寬、大語(yǔ)言模型所需的訓(xùn)練和推理性能;MI300A 系列集成 CPU+GPU,基于最新的 CDNA 3 架構(gòu)和 Zen 4 CPU,可以為 HPC 和 AI 工作負(fù)載提供突破性能。毫無(wú)疑問(wèn),MI300 不僅僅是新一代 AI 加速芯片,也是 AMD 對(duì)下一代高性能計(jì)算的愿景。
MI300X 加速卡已在 2023 年推出
AMD MI300X 擁有最多 8 個(gè) XCD 核心,304 組 CU 單元,8 組 HBM3 核心,內(nèi)存容量最大可達(dá) 192GB,相當(dāng)于英偉達(dá) H100(80GB)的 2.4 倍,同時(shí) HBM 內(nèi)存帶寬高達(dá) 5.3TB/s,Infinity Fabric 總線(xiàn)帶寬 896GB/s。擁有大量板載內(nèi)存的優(yōu)點(diǎn)是,只需更少的 GPU 來(lái)運(yùn)行內(nèi)存中的大模型,省去跨越更多 GPU 的功耗和硬件成本。
2023 年 12 月,AMD 在推出旗艦 MI300X 加速卡之外,還宣布 Instinct MI300A APU 已進(jìn)入量產(chǎn)階段,預(yù)估 2024 年開(kāi)始交付,上市后有望成為世界上最快的 HPC 解決方案。
MI300A:預(yù)估 2024 年開(kāi)始交付
MI300A 是全球首款適用于 HPC 和 AI 的數(shù)據(jù)中心 APU,結(jié)合了 CDNA 3 GPU 內(nèi)核、最新的基于 AMD「Zen 4」x86 的 CPU 內(nèi)核以及 128GB HBM3 內(nèi)存,通過(guò) 3D 封裝和第四代 AMD Infinity 架構(gòu),可提供 HPC 和 AI 工作負(fù)載所需的性能。與上一代 AMD Instinct MI250X5 相比,運(yùn)行 HPC 和 AI 工作負(fù)載,F(xiàn)P32 每瓦性能為 1.9 倍。
能源效率對(duì)于 HPC 和 AI 領(lǐng)域至關(guān)重要,因?yàn)檫@些應(yīng)用中充斥著數(shù)據(jù)和資源極其密集的工作負(fù)載。MI300A APU 將 CPU 和 GPU 核心集成在一個(gè)封裝中,可提供高效的平臺(tái),同時(shí)還可提供加速最新的 AI 模型所需的訓(xùn)練性能。在 AMD 內(nèi)部,能源效率的創(chuàng)新目標(biāo)定位為 30×25,即 2020-2025 年,將服務(wù)器處理器和 AI 加速器的能效提高 30 倍。
綜合來(lái)看,全球 AI 熱潮在 2023 年開(kāi)始爆發(fā),2024 年將繼續(xù)成為業(yè)界的焦點(diǎn)。與 2023 年不同的是,過(guò)去在 AI HPC 領(lǐng)域占據(jù)主導(dǎo)地位的英偉達(dá),今年將面臨 AMD MI300 系列產(chǎn)品的挑戰(zhàn)。
由于微軟、Meta 等云端服務(wù)大廠(chǎng)在一兩年前就開(kāi)始陸續(xù)預(yù)訂英偉達(dá)的 MI300 系列產(chǎn)品,并要求 ODM 廠(chǎng)商開(kāi)始設(shè)計(jì)專(zhuān)用的 AI 服務(wù)器,使用 MI300 系列產(chǎn)品線(xiàn),以分散風(fēng)險(xiǎn)和降低成本。業(yè)界預(yù)計(jì),今年 AMD 的 MI300 系列芯片市場(chǎng)需求至少達(dá)到 40 萬(wàn)顆,如果臺(tái)積電提供更多的產(chǎn)能支持,甚至有機(jī)會(huì)達(dá)到 60 萬(wàn)顆。
AMD 的 CEO 蘇姿豐在圣何塞舉辦的 AMD Advancing AI 活動(dòng)上談到,包括 GPU、FPGA 等在內(nèi)的數(shù)據(jù)中心加速芯片,未來(lái)四年每年將以 50% 以上的速度增長(zhǎng),從 2023 年的 300 億市場(chǎng)規(guī)模,到 2027 年將超過(guò) 1500 億。她表示,從業(yè)多年,這種創(chuàng)新速度比她以往見(jiàn)到的任何技術(shù)都快。
根據(jù)富國(guó)銀行的預(yù)測(cè),AMD 雖然在 2023 年的 AI 芯片的營(yíng)收僅為 4.61 億美元,但是 2024 年將有望增長(zhǎng)到 21 億美元,將有望拿到 4.2% 的市場(chǎng)份額。英特爾也可能拿到將近 2% 的市場(chǎng)份額。這將導(dǎo)致英偉達(dá)的市場(chǎng)份額可能將小幅下滑到 94%。
不過(guò),根據(jù)蘇姿豐在 1 月 30 日的電話(huà)會(huì)議上公布的數(shù)據(jù)顯示,AMD 在 2023 年四季度的 AI 芯片營(yíng)收已經(jīng)超越此前預(yù)測(cè)的 4 億美元,同時(shí) 2024 年 AMD 的 AI 芯片營(yíng)收預(yù)計(jì)也將達(dá)到 35 億美元,高于先前預(yù)測(cè)的 20 億美元。如果,AMD 的預(yù)測(cè)數(shù)據(jù)準(zhǔn)確的話(huà),那么其 2024 年在 AI 芯片市場(chǎng)的份額有望進(jìn)一步提高。
當(dāng)然,英偉達(dá)也并不會(huì)放任其在 AI 市場(chǎng)的壟斷地位受到侵蝕。在目前的人工智能智能加速芯片市場(chǎng),英偉達(dá)的 A100/H100 系列 AI GPU 雖然價(jià)格高昂,但一直是市場(chǎng)的首選。今年英偉達(dá)更為強(qiáng)大的 Hopper H200 和 Blackwell B100 也將會(huì)上市。而根據(jù)一些研究機(jī)構(gòu)的預(yù)測(cè),英偉達(dá)計(jì)劃今年銷(xiāo)售約 150 萬(wàn)至 200 萬(wàn)個(gè) AI GPU,這可能將是其 2023 年銷(xiāo)量的三倍,這也意味著英偉達(dá)將會(huì)徹底解決供應(yīng)的瓶頸問(wèn)題,面對(duì) AMD 和英特爾的競(jìng)爭(zhēng),屆時(shí)英偉達(dá)的價(jià)格策略可能也會(huì)有所調(diào)整。
英偉達(dá)要面對(duì)的不僅僅是 AMD,如今自研 AI 芯片的風(fēng)潮正在科技巨頭之間興起。
今年 2 月,科技巨頭 Meta Platforms 對(duì)外證實(shí),該公司計(jì)劃今年在其數(shù)據(jù)中心部署最新的自研定制芯片,并將與其他 GPU 芯片協(xié)調(diào)工作,旨在支持其 AI 大模型發(fā)展。
研究機(jī)構(gòu) SemiAnalysis 創(chuàng)始人 Dylan Patel 表示,考慮到 Meta 的運(yùn)營(yíng)規(guī)模,一旦大規(guī)模成功部署自研芯片,有望將每年節(jié)省數(shù)億美元能源成本,以及數(shù)十億美元芯片采購(gòu)成本。
OpenAI 也開(kāi)始尋求數(shù)十億美元的資金來(lái)建設(shè)人工智能芯片工廠(chǎng)網(wǎng)絡(luò)。
外媒報(bào)道,OpenAI 正在探索制造自己的人工智能芯片。并且 Open AI 的網(wǎng)站開(kāi)始招募硬件相關(guān)的人才,官方網(wǎng)站上有數(shù)個(gè)軟硬件協(xié)同設(shè)計(jì)的職位在招聘,同時(shí)在去年九月 OpenAI 還招募了人工智能編譯器領(lǐng)域的著名牛人 Andrew Tulloch 加入,這似乎也在印證 OpenAI 自研芯片方面的投入。
不止是 Meta 和 OpenAI,據(jù) The Information 統(tǒng)計(jì),截至目前,全球有超過(guò) 18 家用于 AI 大模型訓(xùn)練和推理的芯片設(shè)計(jì)初創(chuàng)公司,包括 Cerebras、Graphcore、壁仞科技、摩爾線(xiàn)程、d-Matrix 等,融資總額已超過(guò) 60 億美元,企業(yè)整體估值共計(jì)超過(guò) 250 億美元(約合 1792.95 億元人民幣)。
這些公司背后的投資方包括紅杉資本、OpenAI、五源資本、字節(jié)跳動(dòng)等。如果加上微軟、英特爾、AMD 等科技巨頭和芯片龍頭的「造芯」行動(dòng),對(duì)標(biāo)英偉達(dá)的 AI 芯片企業(yè)數(shù)量最終就將超過(guò) 20 家。
如此來(lái)看,盡管英偉達(dá)在數(shù)據(jù)中心、游戲和人工智能加速器等關(guān)鍵增長(zhǎng)領(lǐng)域保持著引人注目的技術(shù)領(lǐng)導(dǎo)地位,但公司面臨越來(lái)越多的競(jìng)爭(zhēng)威脅。2024 年英偉達(dá)也必然會(huì)面臨更大的挑戰(zhàn)。
*聲明:本文系原作者創(chuàng)作。文章內(nèi)容系其個(gè)人觀點(diǎn),我方轉(zhuǎn)載僅為分享與討論,不代表我方贊成或認(rèn)同,如有異議,請(qǐng)聯(lián)系15950995158。