ChatGPT出圈、相關(guān)芯片受益,這些芯片廠商將要“狂飆”?
最近,以ChatGPT為首的生成類模型已經(jīng)成為了人工智能的新熱點(diǎn),硅谷的微軟、谷歌等都紛紛大舉投資此類技術(shù)(微軟100億美元入股ChatGPT背后的OpenAI,谷歌也于近日發(fā)布了自研的BARD模型),而在中國(guó)以百度等為代表的互聯(lián)網(wǎng)科技公司也紛紛表示正在研發(fā)此類技術(shù)并且將于近期上線。
以ChatGPT為代表的生成類模型有一個(gè)共同的特點(diǎn),就是使用了海量數(shù)據(jù)做預(yù)訓(xùn)練,并且往往會(huì)搭配一個(gè)較為強(qiáng)大的語(yǔ)言模型。語(yǔ)言模型主要的功能是從海量的現(xiàn)有語(yǔ)料庫(kù)中進(jìn)行學(xué)習(xí),在經(jīng)過(guò)學(xué)習(xí)之后可以理解用戶的語(yǔ)言指令,或者更進(jìn)一步根據(jù)用戶的指令去生成相關(guān)的文字輸出。
生成類模型大致可以分成兩大類,一類是語(yǔ)言類生成模型,另一類是圖像類生成模型。語(yǔ)言類生成模型以ChatGPT為代表,如前所述其語(yǔ)言模型不僅可以學(xué)習(xí)理解用戶指令的意義(例如,“寫一首詩(shī),李白風(fēng)格的”),而且在經(jīng)過(guò)海量數(shù)據(jù)訓(xùn)練之后,還能夠根據(jù)用戶的指令生成相關(guān)的文字(在上例中就是寫一首李白風(fēng)格的詩(shī))。這意味著ChatGPT需要有一個(gè)足夠大的語(yǔ)言模型(Large Language Model,LLM)來(lái)理解用戶的語(yǔ)言,并且能有高質(zhì)量的語(yǔ)言輸出——例如該模型必須能理解如何生成詩(shī)歌,如何生成李白風(fēng)格的詩(shī)歌等等。這也意味著語(yǔ)言類生成式人工智能中的大語(yǔ)言模型需要非常多的參數(shù),才能完成這類復(fù)雜的學(xué)習(xí)并且記住如此多的信息。以ChatGPT為例,其參數(shù)量高達(dá)1750億(使用標(biāo)準(zhǔn)浮點(diǎn)數(shù)的話會(huì)占用700GB的存儲(chǔ)空間),其語(yǔ)言模型之“大”可見(jiàn)一斑。
另一類生成類模型是以擴(kuò)散模型(Diffusion)為代表的圖像類生成模型,典型的模型包括來(lái)自O(shè)penAI的Dalle,谷歌的ImaGen,以及目前最熱門的來(lái)自Runway AI的Stable Diffusion。這類圖像類生成模型同樣會(huì)使用一個(gè)語(yǔ)言模型來(lái)理解用戶的語(yǔ)言指令,之后根據(jù)這個(gè)指令來(lái)生成高質(zhì)量的圖像。與語(yǔ)言類生成模型不同的是,這里使用到的語(yǔ)言模型主要用語(yǔ)理解用戶輸入,而無(wú)需生成語(yǔ)言輸出,因此參數(shù)量可以小不少(在幾億數(shù)量級(jí)),而圖像的擴(kuò)散模型的參數(shù)量相對(duì)而言也不大,總體而言參數(shù)量大約在幾十億數(shù)量級(jí),但是其計(jì)算量并不小,因?yàn)樯傻膱D像或者視頻的分辨率可以很高。
生成類模型通過(guò)海量數(shù)據(jù)訓(xùn)練,可以產(chǎn)生前所未有的高質(zhì)量輸出,目前已經(jīng)有了不少明確的應(yīng)用市場(chǎng),包括搜索、對(duì)話機(jī)器人、圖像生成和編輯等等,未來(lái)可望會(huì)得到更多的應(yīng)用,這也對(duì)于相關(guān)的芯片提出了需求。
ChatGPT有望助力高性能GPU等發(fā)展
作為人工智能深度發(fā)展到一定階段的產(chǎn)物,ChatGPT對(duì)芯片算力需求極高,高性能GPU等產(chǎn)品有望從中受益。
業(yè)界指出,自然語(yǔ)言類AI應(yīng)用底層算力芯片以高性能GPU為主,在該類芯片中英偉達(dá)占據(jù)主要市場(chǎng)。據(jù)悉,ChatGPT已導(dǎo)入了至少1萬(wàn)顆英偉達(dá)高端GPU?;ㄆ煦y行分析,ChatGPT可能會(huì)在未來(lái)12個(gè)月內(nèi)為英偉達(dá)帶來(lái)30億美元至110億美元的銷售額。
另一大芯片廠商AMD在今年CES上展示了下一代面向數(shù)據(jù)中心的APU產(chǎn)品Instinct MI300,計(jì)劃下半年推出。Instinct MI300采用chiplet設(shè)計(jì),擁有13個(gè)小芯片,晶體管數(shù)量高達(dá)1460億個(gè),超過(guò)了英特爾的1000億晶體管的Ponte Vecchio,成為了AMD投入生產(chǎn)的最大芯片。AMD表示,Instinct MI300可以將ChatGPT和DALL-E等超大型AI模型的訓(xùn)練時(shí)間從幾個(gè)月減少到幾周,從而節(jié)省數(shù)百萬(wàn)美元的電力。
隨著ChatGPT概念持續(xù)火熱,國(guó)內(nèi)AI芯片廠商同樣有望受益。除此之外,由于ChatGPT依賴非常大量的算力(芯片)來(lái)支持其訓(xùn)練和部署,目前ChatGPT在應(yīng)用時(shí)仍需要大算力服務(wù)器支持,這也有望間接帶動(dòng)服務(wù)器內(nèi)存發(fā)展。
英偉達(dá)是ChatGPT熱潮最大受益者
英偉達(dá)是此次ChatGPT熱潮的最大受益者,因?yàn)橛ミ_(dá)用于服務(wù)器的AI芯片對(duì)于超大型AI 模型的學(xué)習(xí)和推理至關(guān)重要,幾乎壟斷全球服務(wù)器用AI芯片市場(chǎng)。
Open AI表示,ChatGPT 是與英偉達(dá)和微軟合作完成的超級(jí)AI。 準(zhǔn)確地說(shuō),微軟已經(jīng)與英偉達(dá)合作,在其云(Azure HPC Cloud)中構(gòu)建了由大量AI芯片組成的超級(jí)計(jì)算機(jī)(HPC)集群,并將其提供給OpenAI。
據(jù)了解,用于 ChatGTP 學(xué)習(xí)和推理的超級(jí)計(jì)算機(jī)擁有 285000個(gè)CPU(中央處理器)內(nèi)核和10000多顆AI芯片。事實(shí)上,如果你問(wèn)ChatGPT是如何學(xué)習(xí)的,它會(huì)回答,“它正在使用英偉達(dá)AI芯片學(xué)習(xí)和執(zhí)行。”
OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分。這是引入和使用英偉達(dá)AI芯片所需的成本。如果ChatGPT用戶數(shù)量增加,云和AI芯片的使用將不可避免地增加,這將增加英偉達(dá)的銷售額和營(yíng)業(yè)利潤(rùn)。
研究人員Uh Gyu-jin表示:“如果說(shuō)游戲?qū)τミ_(dá)的增長(zhǎng)作出了貢獻(xiàn),因?yàn)楦咝阅蹽PU被用來(lái)驅(qū)動(dòng)現(xiàn)有的高端游戲,那么最近數(shù)據(jù)中心銷售的增長(zhǎng)是急劇的,因?yàn)镚PU已被用作數(shù)據(jù)中心加速器。”隨著超大型人工智能的需求增加,英偉達(dá)的銷售額和營(yíng)業(yè)利潤(rùn)有望獲得大幅增長(zhǎng)。
投資者也注意到了這一點(diǎn),并將英偉達(dá)列為ChatGPT熱潮的最大受益者?;ㄆ旒瘓F(tuán)分析師Atif Malik預(yù)估,ChatGPT可能會(huì)在未來(lái)12個(gè)月內(nèi)為英偉達(dá)帶來(lái)30億美元至110億美元的銷售額。
事實(shí)上,從今年開(kāi)始,英偉達(dá)在數(shù)據(jù)中心領(lǐng)域的銷售額有望首次超過(guò)游戲,占比達(dá)到57%。隨著人工智能概念被引入數(shù)據(jù)中心,其銷售額占比將大幅提升。特別是在應(yīng)用人工智能深度學(xué)習(xí)技術(shù)時(shí),收集和分析大規(guī)模信息的云服務(wù)必須得到有效管理。因此,英偉達(dá)GPU安裝在需要深度學(xué)習(xí)技術(shù)的地方越來(lái)越多,例如,提供云服務(wù)的亞馬遜、微軟、IBM和阿里巴巴。
英特爾和AMD等其他半導(dǎo)體公司也生產(chǎn)用于服務(wù)器的AI芯片,但沒(méi)有英偉達(dá)AI芯片并行處理技術(shù)(CUDA)的優(yōu)勢(shì),它們的市場(chǎng)份額僅個(gè)位數(shù);而蘋果、高通等都專注于為智能手機(jī)、平板電腦和物聯(lián)網(wǎng)等邊緣設(shè)備開(kāi)發(fā)AI芯片,因此英偉達(dá)有望在服務(wù)器用的AI芯片領(lǐng)域繼續(xù)占據(jù)主導(dǎo)地位。
HBM需求攀升利好三星、SK海力士
英偉達(dá)GPU搭載了包括高帶寬存儲(chǔ)器(HBM)在內(nèi)的大量DRAM。三星電子、SK 海力士、美光等有望直接或間接受益于英偉達(dá)AI芯片需求的快速增長(zhǎng)。因?yàn)锳I半導(dǎo)體需要“HBM3”才能學(xué)習(xí)和推理,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲(chǔ)器。
ChatGPT等AI聊天機(jī)器人執(zhí)行大量計(jì)算的時(shí)候需要高性能和大容量?jī)?nèi)存的支持。隨著AI聊天機(jī)器人服務(wù)市場(chǎng)爆發(fā),對(duì)內(nèi)存的需求將會(huì)增加。三星電子和 SK 海力士一致認(rèn)為,“ChatGPT 等AI聊天機(jī)器人服務(wù)中長(zhǎng)期將對(duì)內(nèi)存半導(dǎo)體市場(chǎng)產(chǎn)生積極影響?!?/span>
三星電子指出, HBM數(shù)據(jù)處理速度比DRAM快,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存 (HBM) 的需求將會(huì)擴(kuò)大。從長(zhǎng)遠(yuǎn)來(lái)看,隨著AI聊天機(jī)器人服務(wù)的擴(kuò)展,對(duì)用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務(wù)器 DRAM 的需求預(yù)計(jì)會(huì)增加。
SK海力士解釋說(shuō),從內(nèi)存的角度來(lái)看,AI聊天機(jī)器人需要高性能的DRAM和高性能的計(jì)算存儲(chǔ)設(shè)備,可能加快市場(chǎng)重心轉(zhuǎn)向大容量服務(wù)器內(nèi)存的時(shí)間。SK海力士提到,服務(wù)器內(nèi)存從64GB遷移到128GB的速度可能更快。
HBM可以消除 CPU、GPU 和內(nèi)存之間的性能差距造成的瓶頸,補(bǔ)充了現(xiàn)有 DRAM 的局限性,被認(rèn)為是一種具有前景的下一代內(nèi)存產(chǎn)品。CPU和GPU的性能每年都在大幅提升,但支撐它們的內(nèi)存半導(dǎo)體性能卻一直相對(duì)滯后,HBM 作為替代方案應(yīng)運(yùn)而生。目前,通過(guò)與中央處理器 (CPU) 和圖形處理器 (GPU) 配對(duì),可以明顯提高服務(wù)器性能的HBM訂單正在明顯增加。今年第一季度,HBM供應(yīng)商三星電子、SK海力士相關(guān)業(yè)務(wù)咨詢呈指數(shù)級(jí)增長(zhǎng)。特別是SK海力士,客戶的需求電話紛至沓來(lái)。一位業(yè)內(nèi)人士透露,“目前,英偉達(dá)在大部分服務(wù)器 GPU產(chǎn)品中都使用 SK 海力士HBM3”。
HBM唯一缺點(diǎn)是價(jià)格高。HBM盡管性能出色,但平均售價(jià)至少比最高性能的 DRAM 高出三倍,因?yàn)樯a(chǎn)過(guò)程復(fù)雜且需要高水平的工藝。HBM2價(jià)格是16Gb DRAM的兩倍多,SK海力士HBM3價(jià)格已飆升了五倍。從存儲(chǔ)半導(dǎo)體企業(yè)的角度來(lái)看,HBM是一個(gè)高附加值領(lǐng)域,供應(yīng)量越大,利潤(rùn)率就越高。
