九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問深圳市中小企業(yè)公共服務平臺電子信息窗口

算力的基礎是AI芯片不假,但服務器才是發(fā)揮效用的趁手工具

2024-06-17 來源:賢集網(wǎng)
1504

關鍵詞: 人工智能 GPU 芯片

對于大規(guī)模模型訓練而言,算力硬件無疑是支撐其發(fā)展的核心基石之一。隨著全球算力需求逐漸轉向人工智能領域,搭載GPU的AI服務器應運而生,成為滿足這一需求的關鍵力量。

據(jù)TrendForce預測,2023年AI服務器(包括搭載GPU、FPGA、ASIC等各類加速器)的出貨量將達到約118萬臺,同比增長率高達38.4%。這一增長速度遠超整體服務器市場,預計AI服務器在整體服務器出貨量中的占比將接近9%,預計到2026年,AI服務器的占比將提升至15%,出貨量有望達到236萬臺。



AI服務器成長力道強勁

服務器作為一種高性能計算機,通常用于處理網(wǎng)絡上的數(shù)據(jù)、存儲和傳輸數(shù)據(jù),并提供各種網(wǎng)絡服務,以滿足客戶端請求與需要,在網(wǎng)絡環(huán)境中扮演十分重要的角色。

AI服務器即專門為人工智能應用設計的高性能計算平臺,與傳統(tǒng)服務器相比,在用途上AI服務器專門設計用于處理大規(guī)模數(shù)據(jù)和提供高效計算能力以支持人工智能應用;在硬件配置上,二者皆采用高速網(wǎng)絡技術與硬件加速技術,與傳統(tǒng)服務器以CPU為主要算力的形式不同,AI服務器需要滿足AI算法下高性能計算、高存儲需求,因而配置更加復雜,除了CPU之外,通常還需配備GPU、FPGA、ASIC等加速芯片,以滿足AI算法訓練和推理過程中對高吞吐量計算的需求,此外也需要配備大內存、高速SSD等存儲產品。

當前AI服務器多屬于“機架服務器”,一個機柜放多個服務器機箱,規(guī)格以U為代稱,比如1U、2U、4U、7U等,AI需求越高,數(shù)字則越大。

AI大模型有訓練(Training)、推理(Inference)兩大應用場景需求,以此劃分,AI服務器主要有訓練型與推理型兩類,其中訓練型AI服務器算力要求極高,多數(shù)部署于云端,推理型AI服務器則對算力無太高需求,主要部署于云端與邊緣側。

在AI需求推動下,AI服務器成長力道強勁。全球市場研究機構TrendForce集邦咨詢預估,2024年全球AI服務器(包含AI Training及AI Inference)將超過160萬臺,年成長率達40%。

此外今年3月,科技大廠戴爾大幅上調了AI服務器全球TAM(潛在市場規(guī)模),該公司預計2025年與2027年全球AI服務器TAM分別達到1050億美元與1520億美元,高于此前預期的910億美元與1240億美元。


服務器革命:從幕后到臺前的算力基石

AI服務器對算力行業(yè)的重塑,是一次可以類比電車對燃油車的革命。

當年不少人認為汽車技術已經(jīng)相當固定了的時候,新能源車成了產業(yè)鏈徹頭徹尾的顛覆者,這一影響一直延續(xù)至今還在持續(xù)發(fā)酵。

無可爭辯的是,下一個時代是數(shù)字經(jīng)濟時代,所以這輪的服務器革命乘數(shù)效應注定將更為宏大,整個人類社會和經(jīng)濟構成模式都將被撬動。服務器這個典型to B的產品,成為了每一個個體不得不去關心的工業(yè)品,這也解釋了文章開頭提到的名場面。

電車顛覆的是出行鏈,往最大了說也就是能源革命;而服務器的變化,重塑的是信息時代的數(shù)字基座,是將人類從機械、電力、信息時代推向數(shù)字時代的“行星發(fā)動機”。



可以得到佐證的是,在英偉達披露的數(shù)據(jù)中心資本開支構成中,服務器單一占比高達70%,是最大的成本項。數(shù)字經(jīng)濟,用硬件的黑話來說,是一堆服務器的搭積木游戲。


服務器從來都在技術的前沿

有人認為,服務器無非就是由主板、內存、CPU、磁盤、網(wǎng)卡、GPU顯卡、電源、主機箱等硬件設備組成的一臺大電腦,早在1945年馮諾依曼就給這個技術定了性,毫無新意可言。再加上服務器公司由于盈利能力弱,一直都是邊緣板塊。

但從工程創(chuàng)新上,信息時代開始至今的60年間,服務器其實從未停止迭代的腳步,經(jīng)歷了從大型機/小型機、到PC、到云計算用服務器的至少3代升級。只不過吃虧于to B的屬性,沒有幾個人會對機房里傻大黑粗的服務器有什么興趣。

復盤歷史上服務器的變革,對產業(yè)鏈和商業(yè)模式也都有舉足輕重的影響。上一輪帶來產生顛覆性結果的是Wintel聯(lián)盟,帶領X86一桶天下,服務器CPU壟斷者英特爾在歷史上長期都是芯片的絕對王者。其次是,云計算時代白牌服務OEM廠商的崛起,臺系廠商默默占據(jù)了關鍵位置,并為當今的AI服務器格局早早埋下了伏筆。


AI的算力黑洞,唯有升級服務器可對抗

在算力即國力的時代背景下,大規(guī)模并行計算成為數(shù)字時代的剛需,背后遵循著大力出奇跡的樸素道理。AI帶來的算力需求近乎無上限,而服務器中的CPU,已經(jīng)成為新大陸下的舊地圖。

在云計算時代,大家更多做的是閑置算力的優(yōu)化,是中間層和軟件層的革新,本質是一種共享經(jīng)濟而非技術革命。而面對新時代的需求,提升服務器及其集群算力成為木桶的最短板,我們再也繞不開對硬科技的技術升級。

AI 服務器相較于傳統(tǒng)服務器最大的差異在于,靠堆料高性能GPU和HBM,最終呈現(xiàn)了突出的異構計算能力,成為填補算力黑洞唯一可行的硬件解法。比如在訓練AI服務器中,GPU的成本占比超過70%,而在基礎型服務器中,這一占比僅僅不到20%。

服務器平臺的升級,也從跟隨英特爾CPU的代際變化,變成了英偉達GPU的代際變化。服務器單機價值量也從1萬美元左右,飆升到20萬美元左右。

英偉達,無疑成為AI服務器革新中最大的贏家,市值也一路從3000億美元攀升至3萬億美元。顯然,萬億美元從來不是芯片公司的對價,而是對服務器或者說數(shù)字經(jīng)濟這個大賽道的暢想。


做好生態(tài)建設

AI大模型時代,進口品牌GPU等高端芯片供應面臨周期波動挑戰(zhàn),為國產AI芯片加速推向市場打開關鍵窗口。不過,AI大模型的訓練、推理和海量數(shù)據(jù)存儲無一不需要高性能算力支撐,也對國產算力底層基礎設施能力和生態(tài)建設提出考驗。



艾瑞咨詢產業(yè)數(shù)字化研究院負責人徐樊磊表示,在AI大模型爆發(fā)之前,國內的智能算力資源主要用于推理端。AI大模型趨勢到來,使國內廠商開始推出訓練端的算力硬件產品和服務,但目前相關產品能力比起全球領先算力能力仍有較大差距。

業(yè)內人士表示,在計算層面,由于芯片廠商在開發(fā)過程中使用的技術路線不同,導致芯片適配服務器等設備的開發(fā)周期普遍很長。在訓練層面,單芯片算力有限,而大模型訓練需要大規(guī)模的算力集群,需要算力系統(tǒng)具有靈活的算力擴展能力。在存儲層面,多模態(tài)大模型的訓練和推理對存儲提出了更高要求。

近年來,我國AI算力市場高度依賴英偉達GPU硬件和相應的軟件生態(tài)。周韡韡坦言,全球90%的AI工程師都在使用英偉達GPU配套的CUDA軟件生態(tài),這和英偉達GPU在全球的壟斷地位完全匹配?!耙恍﹪aGPU計算性能并非絕對不夠,而是若要把國產GPU和基于CUDA架構開發(fā)的設備進行適配,需要在調試和優(yōu)化上花費大量精力,導致用戶使用算力的效率下降。”

然而,隨著英偉達芯片進口難度不斷提升,國產AI芯片自主創(chuàng)新任重道遠。

記者梳理發(fā)現(xiàn),浪潮信息、海光信息、希姆計算、中科通量、瀚博半導體、墨芯人工智能、摩爾線程、天數(shù)智芯、寒武紀、燧原科技等芯片公司推出了應用于不同場景的AI推理和訓練任務的芯片加速卡,涉及CPU、GPU、RISC-V等不同設計架構。

海光信息表示,海光DCU兼容CUDA生態(tài),對文心一言等大多數(shù)國內外主流大模型適配良好。依托DCU可以實現(xiàn)LLaMa、GPT、Bloom、ChatGLM、悟道、紫東太初等為代表的大模型全面應用。

如何進一步提升國產AI芯片競爭力?中國工程院院士、清華大學教授鄭緯民認為,要開發(fā)基于國產AI芯片的系統(tǒng),這一過程中最重要的是做好生態(tài)建設。“國產AI芯片只要達到國外芯片60%的性能,如果生態(tài)做好了,客戶也會滿意?!编嵕暶穹Q。

徐樊磊建議,做好自主創(chuàng)新要從人才、設施、科研和生態(tài)領域四方面突破,逐步提升智能算力設備軟硬件功能。在硬件方面,提高國產AI芯片的穩(wěn)定性和兼容性,特別是提升芯片之間、服務器集群之間的數(shù)據(jù)傳輸效果。在軟件生態(tài)方面,降低適配門檻,讓開發(fā)者逐漸使用國產芯片生態(tài)。