科技巨頭50億熱錢涌向英偉達(dá),AI芯片一片難求
英偉達(dá)(NVIDIA)是全球領(lǐng)先的人工智能(AI)芯片制造商,其產(chǎn)品在云計(jì)算、自動(dòng)駕駛、機(jī)器學(xué)習(xí)等領(lǐng)域廣受歡迎。近日,據(jù)英國(guó)《金融時(shí)報(bào)》報(bào)道,中國(guó)的四大科技巨頭——百度(Baidu)、騰訊(Tencent)、阿里巴巴(Alibaba)和字節(jié)跳動(dòng)(ByteDance)向英偉達(dá)下單訂購(gòu)了價(jià)值50億美元的AI芯片。這些芯片對(duì)于提升這些公司的AI能力至關(guān)重要。
據(jù)悉,這些公司已下單10億美元,采購(gòu)約10萬顆英偉達(dá)A800處理器。這是一款專為云端AI服務(wù)設(shè)計(jì)的芯片,能夠支持多種AI應(yīng)用場(chǎng)景,如語(yǔ)音識(shí)別、自然語(yǔ)言處理、圖像分析等。此外,這些公司還采購(gòu)了40億美元的英偉達(dá)圖形處理器(GPU),將于2024年交付。GPU是一種能夠高效處理大量并行計(jì)算的芯片,被廣泛用于深度學(xué)習(xí)等AI任務(wù)。
那么,中國(guó)科技巨頭為什么要搶購(gòu)英偉達(dá)的AI芯片呢?背后有何深意呢?
1、AI芯片,一張難求
所謂的AI芯片,其實(shí)是圖形處理器(GPU),主要作用是幫助運(yùn)行訓(xùn)練和部署人工智能算法所涉及的無數(shù)計(jì)算。
也就是說,生成式AI的種種智能表現(xiàn),均來自于無數(shù)GPU的堆砌。使用的芯片越多,生成式AI就越智能。
OpenAI對(duì)GPT-4訓(xùn)練細(xì)節(jié)守口如瓶,但據(jù)媒體猜測(cè),GPT-4至少需要8192張H100芯片,以每小時(shí)2美元的價(jià)格,在約55天內(nèi)可以完成預(yù)訓(xùn)練,成本約為2150萬美元(1.5億人民幣)。
據(jù)微軟高管透露,為ChatGPT提供算力支持的AI超級(jí)計(jì)算機(jī),是微軟在2019年投資10億美元建造一臺(tái)大型頂尖超級(jí)計(jì)算機(jī),配備了數(shù)萬個(gè)英偉達(dá)A100 GPU,還配備了60多個(gè)數(shù)據(jù)中心總共部署了幾十萬個(gè)英偉達(dá)GPU輔助。
ChatGPT所需要的AI芯片并不是固定的,而是逐次遞增。ChatGPT越聰明,背后的代價(jià)是所需算力越來越多。據(jù)摩根士丹利預(yù)測(cè),到了GPT-5大概需要使用2.5萬個(gè)GPU,約是GPT-4的三倍之多。
如果想滿足OpenAI、谷歌等一系列AI產(chǎn)品的需求,那么就相當(dāng)于英偉達(dá)一家公司為全世界的AI產(chǎn)品供芯,這對(duì)于英偉達(dá)的產(chǎn)能是個(gè)極大的考驗(yàn)。
雖然英偉達(dá)正在開足馬力生產(chǎn)AI芯片,但據(jù)媒體報(bào)道,小型和大型云提供商的大規(guī)模H100集群容量即將耗盡,H100的“嚴(yán)重缺貨問題”至少會(huì)持續(xù)到2024年底。
目前,英偉達(dá)作用于AI市場(chǎng)的芯片主要分為H100和A100兩種,H100是旗艦款產(chǎn)品,從技術(shù)細(xì)節(jié)來說,H100比A100在16位推理速度大約快3.5倍,16位訓(xùn)練速度大約快2.3倍。
不論是H100還是A100,全部都是由臺(tái)積電合作生產(chǎn),就使得H100的生產(chǎn)受到了限制。有媒體稱,每一張H100從生產(chǎn)到出廠大約需要半年的時(shí)間,生產(chǎn)效率非常的緩慢。
英偉達(dá)曾表示它們?cè)?023年下半年,提高對(duì)AI芯片的供應(yīng)能力,但沒有提供任何定量的信息。
不少公司和求購(gòu)者都在呼吁,要求英偉達(dá)加大對(duì)晶圓廠的生產(chǎn)數(shù)量,不只和臺(tái)積電合作,而是把更多的訂單交給三星和英特爾。
2、英偉達(dá)的對(duì)手們
面對(duì)43萬張AI芯片缺口,沒有一家公司不動(dòng)心。尤其是英偉達(dá)的最大競(jìng)爭(zhēng)對(duì)手AMD和英特爾,不會(huì)放任其一個(gè)人獨(dú)吞整個(gè)市場(chǎng)。
今年6月14日,AMD董事會(huì)主席、CEO蘇姿豐密集地發(fā)布了多款A(yù)I軟硬件新品,包括針對(duì)大語(yǔ)言模型設(shè)計(jì)的AI芯片,MI300X。正式拉開在AI市場(chǎng),對(duì)英偉達(dá)的正面挑戰(zhàn)。
在硬件參數(shù)上,AMD MI300X擁有多達(dá)13顆小芯片,總共包含1460億個(gè)晶體管,配置128GB的HBM3內(nèi)存。其HBM密度為英偉達(dá)H100的2.4倍,帶寬為英偉達(dá)H100的1.6倍,意味著可加快生成式AI的處理速度。
但可惜的是,這款旗艦AI芯片并沒有現(xiàn)貨,只是預(yù)計(jì)將于2023年Q4季度全面量產(chǎn)。
而另一競(jìng)爭(zhēng)對(duì)手英特爾,則在2019年就以約20億美元的價(jià)格收購(gòu)了人工智能芯片制造商HABANA實(shí)驗(yàn)室,進(jìn)軍AI芯片市場(chǎng)。
今年8月,在英特爾最近的財(cái)報(bào)電話會(huì)議上,英特爾首席執(zhí)行官Pat Gelsinger表示,英特爾正在研發(fā)下一代Falcon Shores AI超算芯片,暫定名為Falcon Shores 2,該芯片預(yù)計(jì)將于2026年發(fā)布。
除了Falcon Shores 2之外,英特爾還推出AI芯片Gaudi2,已經(jīng)開始銷售,而Gaudi3則正在開發(fā)中。
只是可惜的是,Gaudi2芯片規(guī)格并不高,難以實(shí)現(xiàn)對(duì)英偉達(dá)H100和A100發(fā)起挑戰(zhàn)。
除了國(guó)外半導(dǎo)體巨頭們大秀肌肉,開始了“芯片競(jìng)爭(zhēng)”之外,國(guó)內(nèi)的半導(dǎo)體公司也開始了對(duì)AI芯片的研發(fā)。其中,昆侖芯AI加速卡RG800、天數(shù)智芯的天垓100加速卡、燧原科技第二代訓(xùn)練產(chǎn)品云燧T20/T21,均表示能夠具有支持大模型訓(xùn)練的能力。在這場(chǎng)以算力為標(biāo)準(zhǔn),以AI大模型為戰(zhàn)場(chǎng)的芯片之爭(zhēng),英偉達(dá)作為AI市場(chǎng)的最大贏家之一,已經(jīng)在芯片設(shè)計(jì)和市場(chǎng)占比等方面展示出它的強(qiáng)大。
阿里、字節(jié)等互聯(lián)網(wǎng)巨頭向英偉達(dá)下單訂購(gòu)50億美元芯片,預(yù)計(jì)在今年和明年陸續(xù)交付。大量的芯片需求主要是出于AI產(chǎn)品開發(fā)的需要,其背后的大語(yǔ)言模型訓(xùn)練需要強(qiáng)大的算力支撐。
在生成式AI這個(gè)科技熱潮下,大廠們都想交出一份令用戶滿意的答卷。然而,芯片的供需不平衡等也是不可忽視的問題。
