九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺(tái)電子信息窗口

小眾存儲(chǔ)芯片“翻身”:火熱的ChatGPT還會(huì)催熱哪些芯片需求?

2023-02-22 來源:界面新聞
1264

關(guān)鍵詞: GPU ChatGPT 芯片

由OpenAI開發(fā)的聊天機(jī)器人ChatGPT于去年末發(fā)布后,由于表現(xiàn)驚艷,近期在全球刮起了一股猛烈的旋風(fēng)。微軟和谷歌等巨頭在此類技術(shù)上投入巨資。在國(guó)內(nèi),百度和其他互聯(lián)網(wǎng)公司也表示正在開發(fā)此類技術(shù),并即將推出。


GPT即預(yù)訓(xùn)練大語言模型(Generative Pre-trained Transformer),其基于自然語言處理模型Transformer進(jìn)行預(yù)訓(xùn)練,并不斷迭代提升模型能力。大語言模型等此類生成式AI通過海量數(shù)據(jù)訓(xùn)練,可以產(chǎn)生前所未有的高質(zhì)量輸出,可用于搜索、對(duì)話機(jī)器人、圖像生成和編輯等。


微軟使用ChatGPT技術(shù),將其引入搜索引擎必應(yīng),借助對(duì)話式人工智能(AI),通過準(zhǔn)確理解人類提問意圖并做出回答,給搜索帶來革新。除了文字,預(yù)訓(xùn)練大模型還能生成圖像,與真人作畫相比不分高下的AI畫師過去數(shù)月多次涌現(xiàn)。


ChatGPT崛起,相關(guān)應(yīng)用用戶快速增長(zhǎng)下,對(duì)運(yùn)算基礎(chǔ)的算力要求越來越高,也將對(duì)相關(guān)的芯片提出了需求。因其背后技術(shù)將高度依賴AI處理能力,并涉及與之相關(guān)的網(wǎng)絡(luò)、存儲(chǔ)和算力基礎(chǔ)設(shè)施。


GPU為AI計(jì)算主流


ChatGPT高度依賴AI計(jì)算能力,而向OpenAI提供GPU芯片的英偉達(dá)正成為最大受益者,摩爾線程摩爾學(xué)院院長(zhǎng)李豐解釋,當(dāng)人工智能模型通過算法生成內(nèi)容時(shí),即需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,這一過程即在GPU集群進(jìn)行,隨后訓(xùn)練完成的模型又部署在GPU集群進(jìn)行推斷,完成圖像生成、語言聊天等工作。


“人工智能的算法是在不斷進(jìn)步和迭代過程當(dāng)中,GPU實(shí)際上兼顧了靈活度以及計(jì)算能力,”李豐稱,相比專用的AI芯片,GPU靈活性更強(qiáng),又可以保證AI計(jì)算性能,因此受到開發(fā)者的歡迎。他提及,在全世界范圍內(nèi),主要的增長(zhǎng)算力的來源來自于GPU。


目前,ChatGPT背后的GPT-3.5模型已有超過1750億個(gè)參數(shù),訓(xùn)練成本高昂,根據(jù)國(guó)盛證券報(bào)告顯示,GPT-3訓(xùn)練一次的成本約為140萬美元,對(duì)于一些更大的大型語言模型,訓(xùn)練成本介于200萬美元至1200萬美元之間。


以ChatGPT在今年1月的獨(dú)立訪客平均數(shù)1300萬計(jì)算,其對(duì)應(yīng)芯片需求為3萬多片英偉達(dá)A100 GPU圖形處理器,初始投入成本約為8億美元。此外,據(jù)花旗集團(tuán)預(yù)估,ChatGPT將可能促使英偉達(dá)相關(guān)產(chǎn)品在12個(gè)月內(nèi)銷售額達(dá)到30億至110億美元。


這意味著,ChatGPT等此類應(yīng)用將會(huì)拉動(dòng)英偉達(dá)GPU芯片需求。英偉達(dá)公司的GPU圖形處理器在大型AI模型培訓(xùn)市場(chǎng)占據(jù)主導(dǎo)地位,其股價(jià)今年已大漲55% 。


一家大型IT廠商的人工智能部門負(fù)責(zé)人向界面新聞?dòng)浾弑硎?,目前在?xùn)練端,英偉達(dá)是毫無疑問的冠軍,其他玩家爭(zhēng)奪的市場(chǎng)在于推斷端,這部分的任務(wù)量較小,對(duì)功耗、延遲更敏感。李豐就提及,摩爾線程已經(jīng)在內(nèi)部測(cè)試,完全部署在摩爾線程GPU上的AIGC平臺(tái)不久即面世,這是包括了圖像生成、自然語言生成等一系列的內(nèi)容生成平臺(tái)。


除了GPU,涉及計(jì)算能力的芯片類型還包括CPU、FPGA、ASIC等,不同類型的計(jì)算芯片進(jìn)行組合,可以滿足不同AI模型的計(jì)算需要。


專用AI芯片ASIC(專用集成電路)也有望未來在AI算力中占據(jù)一席之地。谷歌此前發(fā)布了自研TPU(張量處理器)并多次迭代,這是谷歌特別設(shè)計(jì)用于機(jī)器學(xué)習(xí)的芯片。依照谷歌提供的數(shù)據(jù),TPU計(jì)算效率是過往GPU十倍以上。谷歌將TPU部署在自家云平臺(tái)上,未來該公司將推出的對(duì)話式AI服務(wù)Bard,也將基于TPU運(yùn)行。


小眾芯片HBM走向前臺(tái)


在一個(gè)計(jì)算系統(tǒng)中,與計(jì)算相匹配必然還需要存儲(chǔ)、網(wǎng)絡(luò)等架構(gòu)。無論是CPU、GPU,還是其它專用芯片,在計(jì)算過程中均將不可避免的被存儲(chǔ)、通信等進(jìn)程打斷,需要行業(yè)參與者拿出對(duì)應(yīng)解決方案。


在ChatGPT熱潮下,一種小眾存儲(chǔ)芯片的名氣正隨著AI計(jì)算需求劇增而為外界所知,據(jù)《韓國(guó)經(jīng)濟(jì)日?qǐng)?bào)》報(bào)道,受惠于ChatGPT,隨著市場(chǎng)對(duì)GPU需求劇增,三星、SK海力士的HBM芯片贏得了額外的訂單,成為目前存儲(chǔ)芯片下行市場(chǎng)中,意外爆紅的芯片類型。


HBM(High Bandwidth Memory,高帶寬存儲(chǔ)器)芯片是一種可以實(shí)現(xiàn)高帶寬的內(nèi)存芯片,與普通DRAM內(nèi)存相比,HBM可以提供更高的數(shù)據(jù)的傳輸速度,基于該特性,HBM主要應(yīng)用于高性能計(jì)算場(chǎng)景中,如超級(jí)計(jì)算機(jī)、AI加速器、高性能服務(wù)器領(lǐng)域。


HBM在與CPU及GPU協(xié)同工作中,可以提高機(jī)器學(xué)習(xí)和計(jì)算性能。目前ChatGPT的火熱發(fā)展已令英偉達(dá)等GPU廠商受益——ChatGPT使用了1萬多個(gè)英偉達(dá)的A100 GPU學(xué)習(xí)了龐大的文檔數(shù)據(jù)。而HBM可以安裝在加速卡中,英偉達(dá)A100就最高配備80GB HBM2內(nèi)存。


“HBM一直很難賣,因?yàn)閮r(jià)格是DRAM的3倍,但AI是HBM的殺手級(jí)應(yīng)用?!盩riOrient Investments副總裁Dan Nystedt稱。由于成本高昂,HBM一直難以大規(guī)模普及,市場(chǎng)推廣較慢,但預(yù)計(jì)AI應(yīng)用將為其進(jìn)一步打開市場(chǎng)規(guī)模。


目前,由ChatGpt帶動(dòng)的HBM需求已經(jīng)引起了上游廠商的關(guān)注。SK海力士提及,目前已開發(fā)除第四代HBM產(chǎn)品,并于去年向英偉達(dá)供貨。三星半導(dǎo)體對(duì)界面新聞表示,基于人工智能技術(shù)的交互式AI的學(xué)習(xí)和推理需要高性能處理器和支持其高性能存儲(chǔ)器組合,這將積極地影響對(duì)存儲(chǔ)器的需求。


三星HBM-PIM


針對(duì)AI應(yīng)用,三星半導(dǎo)體介紹,已經(jīng)在存儲(chǔ)芯片上結(jié)合人工智能處理器的HBM-PIM(Procee in Memory,存內(nèi)計(jì)算)技術(shù)上取得了成果,并計(jì)劃與客戶共同構(gòu)建PIM平臺(tái)生態(tài)系統(tǒng)。


根據(jù)市場(chǎng)調(diào)研機(jī)構(gòu)Omdia在2021年預(yù)測(cè),到2025年,HBM市場(chǎng)的總收入將達(dá)到25億美元,目前來看,這一數(shù)字隨著AI計(jì)算需求增長(zhǎng)有望打破。


長(zhǎng)期來看,HBM配合CXL等新型數(shù)據(jù)傳輸協(xié)議也將在增強(qiáng)AI計(jì)算性能,并獲得行業(yè)巨頭支持。半導(dǎo)體咨詢機(jī)構(gòu)集邦咨詢認(rèn)為,CXL將隨著未來CPU內(nèi)置CXL功能而普及化,在未來AI服務(wù)器中,可以見到更多使用HBM和CXL的聯(lián)合設(shè)計(jì)方案。


分布式計(jì)算呼喚DPU


ChatGPT參數(shù)量數(shù)以億計(jì),無法在單臺(tái)機(jī)器上進(jìn)行有效的訓(xùn)練或推理,因此需要使用分布式計(jì)算。在分布式計(jì)算中,機(jī)器之間的帶寬和高效的計(jì)算芯片變得至關(guān)重要,因?yàn)閿?shù)據(jù)互連往往是瓶頸。在數(shù)據(jù)中心層面,業(yè)界期待被視為數(shù)據(jù)中心“第三顆芯片“的DPU解決此類問題。


“ChatGPT這類語言類生成模型的參數(shù)量高達(dá)千億,幾乎不可能使用單機(jī)訓(xùn)練和推理,而必須大量使用分布式計(jì)算。”DPU開發(fā)商云脈芯聯(lián)相關(guān)負(fù)責(zé)人告訴界面新聞,在進(jìn)行分布式計(jì)算時(shí),就需要DPU做一些數(shù)據(jù)的處理和預(yù)處理,由DPU將任務(wù)分發(fā)給CPU、GPU和FPGA等進(jìn)行計(jì)算。


DPU即數(shù)據(jù)處理器(Data Processing Unit),用于處理海量數(shù)據(jù),在云數(shù)據(jù)中心中,數(shù)據(jù)在多個(gè)服務(wù)器之間來回流動(dòng)。云廠商通過將網(wǎng)卡改造為DPU,減輕CPU負(fù)擔(dān),使其專注于更關(guān)鍵的任務(wù),類似于公司前臺(tái)可以緩解員工的工作量。


業(yè)內(nèi)還預(yù)計(jì),除了GPU、HBM、DPU以外,由小芯粒技術(shù)Chiplet加持的芯片異構(gòu)技術(shù),也有望支持算力增長(zhǎng),Chiplet通過把不同芯片的能力模塊化,利用新的設(shè)計(jì)、互聯(lián)、封裝等技術(shù),在一個(gè)封裝的產(chǎn)品中使用來自不同技術(shù)、不同制程甚至不同工廠的芯片。從半導(dǎo)體產(chǎn)業(yè)鏈端來看,包括IP授權(quán)、晶圓代工、封測(cè)等廠商為之提供關(guān)鍵的技術(shù)支持,可視為提升AI算力重要的基礎(chǔ)設(shè)施。包括Imagination、Arm、臺(tái)積電、日月光等上下游廠商,將從中獲得增長(zhǎng)。