科技企業(yè)欲虎口奪食,紛紛放出AI大招
作為引領新一輪科技革命和產業(yè)變革的戰(zhàn)略性技術,人工智能AI已經(jīng)成為新型工業(yè)化發(fā)展的重要推動力之一。在ChatGPT熱潮推動下,當前,AI人工智能及其應用在全球迅速普及。從產業(yè)格局來看,目前英偉達在AI芯片市場幾乎掌握著絕對的話語權。
而與此同時,為加速占領風口,以谷歌、微軟、蘋果等為代表的各大科技廠商都積極下場競賽。其中,Meta、谷歌、英特爾、蘋果推出了最新的AI芯片,希望降低對英偉達等公司的依賴,而微軟、三星等廠商在AI方面的投資計劃及進展亦相繼傳出。
微軟:逾110億美元投資計劃公布
微軟方面,近日,據(jù)多家外媒報道,微軟正在研發(fā)一款名為MAI-1的最新AI大模型。其規(guī)模遠超出微軟此前推出的一些開源模型,在性能上或能與谷歌的Gemini 1.5、Anthropic的Claude 3和OpenAI的GPT-4等知名大模型相匹敵。報道稱,微軟或將在即將舉辦的Build開發(fā)者大會上演示。
事實上,為應對日益增長的AI計算需求,微軟于近期宣布,將在威斯康星州投資數(shù)十億美元用于建設人工智能(AI)基礎設施。微軟表示,新的投資將為威斯康星州創(chuàng)造2300個建筑工作崗位,在設施建成之后,最終將創(chuàng)造多達2000個數(shù)據(jù)中心工作崗位。
此外,微軟還將在威斯康星大學密爾沃基分校投資了一個新的AI實驗室,以培訓工人使用AI技術。
據(jù)悉,微軟此次宣布的在美投資計劃涉及金額達33億美元,加上此前宣布的日本、印度尼西亞、以及馬來西亞、泰國等地的投資計劃,微軟近期在人工智能相關領域宣布的投資金額已經(jīng)超過110億美元。
根據(jù)微軟上周宣布的多項投資計劃,其未來兩年內投資29億美元,用于提升其在日本的云計算和人工智能基礎設施;未來四年內投資17億美元,用于在印度尼西亞擴展云服務和人工智能,包括建設數(shù)據(jù)中心;未來4年中,投資22億美元于馬來西亞的云計算和人工智能等領域;投資10億美元在泰國建立首個數(shù)據(jù)中心,致力于為超過10萬人提供人工智能技能培訓。
蘋果:為數(shù)據(jù)中心自研AI芯片?
另一大科技巨頭蘋果公司亦推出了其首款AI芯片M4,據(jù)蘋果表示,M4芯片中的神經(jīng)引擎是蘋果迄今為止功能最強大的神經(jīng)引擎,比當今任何AI PC中的任何神經(jīng)處理單元都更強大,蘋果進一步強調,今年將在生成式AI領域“開辟新天地”,為用戶帶來變革性的機遇。
而根據(jù)《華爾街日報》的報道,蘋果一直在研發(fā)自己的芯片,用于在數(shù)據(jù)中心服務器上運行人工智能軟件。據(jù)知情人士透露,服務器芯片項目的內部代號為ACDC(Apple Chips in Data Center,數(shù)據(jù)中心蘋果芯片)。報道稱,ACDC項目已經(jīng)進行了好幾年,但目前還不確定這款新芯片最終會不會投入使用,以及何時會推出。
知名科技記者馬克·古爾曼的消息也顯示,蘋果公司今年將通過自研芯片在云端推出AI功能。根據(jù)古爾曼的說法,蘋果將在云計算服務器中部署高端芯片(類似于它為Mac設計的芯片),用于處理蘋果設備上最先進的AI任務,至于那些更簡單的AI相關功能將直接由iPhone、iPad和Mac內置的芯片來處理。
三星:AI推理芯片Mach-1或即將試產
據(jù)韓國媒體ZDNet Korea援引業(yè)內人士的消息指出,三星電子的AI推理芯片Mach-1即將以MPW(多項目晶圓)的方式進行原型試產,有望基于三星自家的4nm工藝。
此前,三星電子曾在股東大會上透露,將會在2025年初推出自家人工智能加速器芯片Mach-1。作為三星電子發(fā)展AI戰(zhàn)略的重要一步,Mach-1芯片是一款基于特定應用集成電路(ASIC)的人工智能推理加速器,并配備了LPDDR內存,使其特別適合邊緣計算應用。
三星電子DS(半導體)部門負責人慶桂顯曾表示,該芯片的開發(fā)目標是通過算法將片外內存同計算芯片間的數(shù)據(jù)瓶頸降至1/8,同時能效也提高八倍。慶桂顯指出,Mach-1芯片設計已通過現(xiàn)場可程式設計門陣列(FPGA)技術驗證,正進行系統(tǒng)芯片(SoC)的物理定型階段,預計將在年底前準備就緒,2025年初推出由Mach-1芯片驅動的人工智能系統(tǒng)。
除了開發(fā)AI芯片Mach-1外,三星電子還在美國硅谷建立專從事通用人工智能(AGI)研究實驗室,目標是開發(fā)能滿足未來AGI系統(tǒng)處理要求的新型處理器和內存技術。
以推理為突破口 英特爾能否分一杯羹?
在“Intel Vison”大會上,英特爾重磅發(fā)布了新一代AI芯片Gaudi3,較英偉達H100芯片在推理性能、硬件性能、I/O性能上均有提升,CEO帕特·基辛格更是宣稱與英偉達H200性能相當。
首先,Gaudi3推理能力平均提高50%,運行AI模型的速度則達到1.5倍。其次,Gaudi 3采用了臺積電5nm工藝,張量核心數(shù)量增加,性能在部分大模型上超越H100。此外,提高了端口速率和端口數(shù)量,增強整體數(shù)據(jù)傳輸能力。
去年年底,英特爾CEO帕特·基辛格曾炮轟英偉達的CUDA生態(tài),稱其“既窄又淺”,并聲稱對于AI而言推理技術比訓練更加重要。盡管H100已經(jīng)問世2年,但如果Gaudi3成功在推理方面大幅擊敗H100,這對英特爾而言將是一個巨大的勝利。
然而Gaudi3真的能夠比肩H100嗎?當下是無法持一個明確的肯定態(tài)度。
這主要是由于,英偉達并沒有止步H100。今年三月,英偉達基于BlackWell GPU(圖形處理器)架構發(fā)布的B100,性能再次獲得大幅提升,連馬斯克都不禁感慨,“目前沒有什么比英偉達GPU更好的AI芯片了。”
如果將英偉達最新款B100和英特爾Gaudi3進行對比,兩者差距一目了然。
從硬件方面來看,英偉達B100采用3nm(納米)工藝,而英特爾Gaudi3采用的是5nm工藝打造。一般而言,3nm工藝較5nm工藝芯片,集成晶體管密度更多、性能可能是后者芯片的兩倍、功耗同時降低20-30%。
目前,臺積電3nm晶圓量產代表了最先進的芯片集成技術,B100在芯片工藝上的選擇,就已經(jīng)“秒滅”Gaudi3。當然,3nm工藝芯片制造成本較高,很可能會限制B100的客戶規(guī)模,僅有需要極高性能計算和AI處理能力的客戶,才能負擔B100的費用。預計在價格方面,Gaudi3有一定優(yōu)勢。
在HBM(高帶寬內存)選擇上,搭載128GB內存的Gaudi3沒有采用最新的HBM3,而是采用了稍微有些過時的HBM2e。與HBM2e相比,HBM3不僅傳輸帶寬更高,單顆容量也從16GB擴大至24GB,甚至32GB。
I/O(輸入/輸出)方面,英特爾使用以太網(wǎng)路線,端口速率從100GB/S提高至200GB/S,每個芯片擁有24個以太網(wǎng)端口,結合與英偉達BlackWell類似的雙芯片設計,每張Gaudi3的以太網(wǎng)I/O總帶寬高達8.4TB/S。
總體而言,Gaudi3的此次升級不僅算不上激進,甚至稍顯保守,盡管在部分大模型上超越了H100,但仍然很難與英偉達最新的B100相抗衡。英偉達的技術與生態(tài)領先優(yōu)勢、高昂的芯片成本、以及快速增長的AI芯片市場等諸多因素,都注定了英特爾的趕超之路任重道遠。
芯片只租不賣 谷歌和平“去英偉達化”
在Next大會上,谷歌公布了其自研的首款基于Arm架構的CPU芯片Axion,相較于GPU它具備算力優(yōu)勢,能更高效地處理大量數(shù)據(jù)集,專為數(shù)據(jù)中心AI應用設計,旨在應對從廣告到大數(shù)據(jù)分析的多項任務。
具體而言,Axion芯片將廣泛適用于各類任務,尤其支持谷歌的搜索引擎和AI相關工作。谷歌強調,這款芯片在AI領域發(fā)揮著關鍵支持作用,通過高效處理海量數(shù)據(jù)并服務于數(shù)十億用戶,展現(xiàn)其強大實力。
下一步,谷歌計劃逐步在基于Arm的云服務器用例中運用Axion,目前Datadog、Elastic、OpenX和Snap等多家公司已計劃采用這款芯片。
Axion芯片是谷歌在芯片創(chuàng)新領域逾十年努力的延續(xù),尤其在ChatGPT引發(fā)的AI競賽背景下,谷歌進一步堅定執(zhí)行自研芯片戰(zhàn)略,以減少對外部供應商的依賴。
Axion AI芯片的推出,標志著谷歌開始逐漸“去英偉達化”,在減少對英偉達芯片依賴的同時,與傳統(tǒng)合作伙伴英特爾展開競爭,并向微軟和亞馬遜發(fā)起挑戰(zhàn)。不過,谷歌副總裁Amin Vahdat強調,此舉旨在擴大市場而非單純競爭。
也許出于這方面考量,Google的Axion AI芯片采取了只租不賣的業(yè)務模式,Alphabet(谷歌重組后的“傘形公司”)子公司的客戶將能夠在今年晚些時候通過 Google 的云業(yè)務訪問 Axion,但無法直接購買。通過不直接向客戶銷售,Google 避免了與其長期合作伙伴,以及主導芯片制造商——英特爾與英偉達的直接競爭,試圖通過這種模式,向行業(yè)內釋放積極友好信號。
試圖破局 Meta放了個大招
另一邊,為了改變英偉達一家獨大的局面,Meta也在尋求破局。
早在去年5月,Meta就已經(jīng)推出首款自研 AI 芯片 MTIA(MTIA v1),采用的是臺積電 7nm 制程,而最新芯片 MTIA v2 同樣是交由臺積電代工,制程工藝升級到了 5nm。此外,下一代 MTIA 配備更多處理核心,片內存儲(on-chip memory)翻倍到了 256MB(MTIA v1 僅有 128MB),off-chip LPDDR5(第五代通信標準) 也提高到了 128GB(MTIA v1 為 64GB),主頻也從 800MHz 上升到了 1.35GHz。
有意思的是,MITA v2的面積僅變大了13%,功耗卻增加到上一代的3.6倍,即 90W(MTIA v1為25W)。相比之下,英偉達 H100 PCIe(高速串行計算機擴展總線標準)的最大功耗約在 350~500W 區(qū)間(SXM版高達700W),INT8(8位有符號整數(shù))精度下稀疏算力為 3026TFLOPS(每秒浮點運算次數(shù))。
根據(jù)Meta透露,目前MITA v2已經(jīng)在16個數(shù)據(jù)中心區(qū)域投入使用。作為Meta在AI硬件領域的關鍵布局,MITAv2的性能提升將有效提升Meta社交軟件的排名和推薦系統(tǒng)效率,并支持其在生成式AI領域的發(fā)展。
作為英偉達H100 GPU的重要客戶,Meta預計今年底前將采購35萬顆H100。與此同時,Meta正加速自研MTIA系列AI芯片,旨在減少對英偉達的依賴,降低采購成本。
隨著AI技術的迅猛發(fā)展和市場競爭的加劇,在英偉達H200交付后,Meta面臨重要抉擇:是選擇繼續(xù)采購英偉達的產品以維持業(yè)務的穩(wěn)定運行,還是選擇自給自足,通過自主研發(fā)和技術創(chuàng)新來擺脫對外部供應商的依賴?
這一決策絕非易事。但從Meta近兩年動作來看,Meta正加大研發(fā)投入以升級自有產品,逐步完成AI芯片的自主替代。
國產AI算力軍備競賽,第一梯隊已現(xiàn)雛形
伴隨多模態(tài)千億、萬億參數(shù)大模型的爆發(fā),全球AI玩家都加入了算力軍備競賽。英偉達、AMD、英特爾這些算力巨頭自不必說。在軟件巨頭領域,不僅有亞馬遜、微軟、華為、百度、阿里、特斯拉等下游客戶推動自研芯片,國內AI芯片也百花齊放,華為、摩爾線程、寒武紀、壁仞、天數(shù)智芯等也在各施奇招,爭奪登上前往AI時代的一張新船票。
目前而言,國產AI芯片大體呈現(xiàn)了三個梯隊的格局。以產品性能、量產規(guī)模、擁有集群能力且已有場景落地等要素來考量,華為、海光、寒武紀、摩爾線程等公司可歸為國產AI芯片的頭部梯隊。目前國內只有華為和摩爾線程,可以實現(xiàn)國產化的千卡集群,其它廠商還在百卡階段徘徊。而一些起步不久的初創(chuàng)類芯片廠商,由于還在驗證或量產階段,產品仍在打磨階段。
