九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問深圳市中小企業(yè)公共服務(wù)平臺電子信息窗口

挑戰(zhàn)英偉達,難度有多大?誰能成為下一個接棒者?

2024-04-16 來源:賢集網(wǎng)
2915

關(guān)鍵詞: 人工智能 芯片 英偉達

隨著圍繞人工智能的押注越來越火熱,一些芯片公司也被華爾街“挑選”了出來,認(rèn)為它們可能從這一波熱潮中受益,但分析師們普遍認(rèn)為,這些公司所獲得的收益不會來自于英偉達現(xiàn)在所擁有的份額。

英偉達GPU主導(dǎo)著人工智能芯片市場,這些實力玩家希望改變這一點。

如果說有哪只股票能從人工智能(AI)中獲利,那一定是英偉達(Nvidia)。該公司率先開發(fā)了圖形處理單元(GPU),可以在視頻游戲中呈現(xiàn)逼真的圖像。讓這些芯片如此高效的是并行處理,它將計算復(fù)雜的工作分解成更小、更易于管理的塊。英偉達能夠調(diào)整這項技術(shù)來處理人工智能的嚴(yán)格要求,使其成為人工智能芯片領(lǐng)域最成功的公司。

然而,隨著對人工智能的需求加速增長,許多技術(shù)中堅人士一直在幕后瘋狂地研發(fā)可行的替代方案,以取代英偉達業(yè)界領(lǐng)先的處理器。


一、近期競爭對手的成果

1. 英特爾


早些時候,英特爾(Intel)發(fā)布了名為Gaudi 3的最新人工智能芯片,直接挑戰(zhàn)了英偉達在GPU領(lǐng)域的主導(dǎo)地位。該公司聲稱,高迪訓(xùn)練人工智能模型的速度幾乎是英偉達H100旗艦數(shù)據(jù)中心處理器的兩倍,在推理方面快50%,即運行已經(jīng)訓(xùn)練過的人工智能模型。該公司還表示,高迪的性能比H100高40%,“成本只是H100的一小部分”。



值得注意的是,英偉達最近推出了H100的后繼產(chǎn)品Blackwell B200 AI GPU,將于今年晚些時候開始發(fā)貨。雖然沒有將高迪與B200進行比較,但英特爾公司表示,“我們確信高迪2將具有很強的競爭力”,能夠與英偉達的最新處理器競爭,并稱高迪是“一款強大的產(chǎn)品”。

英特爾可能并不打算超越英偉達最新的人工智能芯片,而是希望為企業(yè)提供一種更便宜的替代產(chǎn)品。同樣值得注意的是,英偉達的H100和H200芯片一直供不應(yīng)求,這給人工智能的應(yīng)用帶來了發(fā)展瓶頸。英特爾的最新產(chǎn)品可能有助于緩解積壓。


2. Meta平臺

Meta平臺也不甘示弱,宣布推出Meta訓(xùn)練和推理加速器(MTIA) v2,這是一款在公司數(shù)據(jù)中心運行的定制人工智能芯片。Meta宣布其最新版本的MTIA“將計算和內(nèi)存帶寬提高了一倍以上”。初步結(jié)果顯示,新處理器的性能是第一個版本的三倍。

Meta指出,它正試圖通過其最新芯片提供“計算、內(nèi)存帶寬和內(nèi)存容量的適當(dāng)平衡”。該公司沒有將這些芯片用于人工智能處理;至少,目前還沒有。Meta正在使用這些處理器來提高其排名和推薦系統(tǒng)的速度和效率,這些系統(tǒng)用于在其社交媒體網(wǎng)站上顯示相關(guān)內(nèi)容和目標(biāo)廣告。

Meta是英偉達最大的客戶之一,因此,如果它在人工智能芯片方面取得成功,該公司可能會減少對英偉達人工智能處理器的依賴。


3. Alphabet

在本周的Google Cloud Next發(fā)布會上,Alphabet宣布推出最新版本的以人工智能為中心的處理器——云張量處理單元(Cloud Tensor Processing Unit, TPU) v5p。該公司表示,其Cloud TPU可以訓(xùn)練支撐人工智能系統(tǒng)的大型語言模型(llm),速度比版本4快三倍。

與一般情況一樣,谷歌的tpu不會出售,但將于今年晚些時候在谷歌云上提供。

然而,在一篇博客文章中,谷歌指出,它正在擴展其英偉達GPU的能力,增加了由英偉達H100 GPU驅(qū)動的A3超級計算機。谷歌云的客戶還可以使用采用英偉達Blackwell B200和Grace Blackwell GB200 gpu的虛擬機。

谷歌還發(fā)布了與Arm Holdings合作設(shè)計的第一款數(shù)據(jù)中心中央處理器Axion。谷歌表示,Axion的速度比目前領(lǐng)先的CPU快30%,性能比英特爾和AMD的x86芯片高50%,效率比后者高62%。


二、Groq號稱比英偉達的GPU更快

Groq收購了一家人工智能解決方案公司Definitive Intelligence。這是 Groq 在 2022 年收購高性能計算和人工智能基礎(chǔ)設(shè)施解決方案公司 Maxeler Technologies 后的第二次收購。Groq來勢很兇。




我們處于一個快節(jié)奏的世界中,人們習(xí)慣于快速獲取信息和滿足需求。研究表明,當(dāng)網(wǎng)站頁面延遲300 - 500毫秒(ms)時,用戶粘性會下降20%左右。這在AI的時代下更為明顯。速度是大多數(shù)人工智能應(yīng)用程序的首要任務(wù)。類似ChatGPT這樣的大語言模型(LLM)和其他生成式人工智能應(yīng)用具有改變市場和解決重大挑戰(zhàn)的潛力,但前提是它們足夠快,還要有質(zhì)量,也就是結(jié)果要準(zhǔn)確。

如今行業(yè)不少人的共識認(rèn)為,英偉達的成功不僅僅歸功于其GPU硬件,還在于其CUDA軟件生態(tài)系統(tǒng)。CUDA也被業(yè)界稱為是其“護城河”。那么,其他AI芯片玩家該如何與英偉達競爭?

誠然,CUDA為GPU開發(fā)者提供了一個高效的編程框架,方便編程人員快速實現(xiàn)各種算子。不過,僅靠編程框架并不能實現(xiàn)高性能的算子處理。因此,英偉達有大量的軟件開發(fā)團隊和算子優(yōu)化團隊,通過仔細(xì)優(yōu)化底層代碼并提供相應(yīng)的計算庫,提升深度學(xué)習(xí)等應(yīng)用計算效率。由于CUDA有較好的生態(tài),這部分開源社區(qū)也有相當(dāng)大的貢獻。

然而,CUDA框架和GPU硬件架構(gòu)的緊密耦合同時也帶來了挑戰(zhàn),比如在GPU之間的數(shù)據(jù)交互通常需要通過全局內(nèi)存(Global Memory),這可能導(dǎo)致大量的內(nèi)存訪問,從而影響性能。如果需要減少這類訪存,需要利用Kernel的Fusion等技術(shù)。實際上,英偉達在H100里增加SM-SM的片上傳輸通路來實現(xiàn)SM間數(shù)據(jù)的復(fù)用、減少訪存數(shù)量,但是這通常需要程序員手工完成,同樣增加了性能優(yōu)化的難度。另外,GPU的整個軟件棧最早并不是專為深度學(xué)習(xí)設(shè)計的,它在提供通用性的同時,也引入了不小的開銷,這在學(xué)術(shù)界也有不少相關(guān)的研究。

因此,這就給AI芯片的新挑戰(zhàn)者如Groq,這提供了機會。例如Groq就是挖掘深度學(xué)習(xí)應(yīng)用處理過程中的“確定性”來減少硬件開銷、處理延時等。這也是Groq芯片的特色之處。

實現(xiàn)這么一款芯片的挑戰(zhàn)是多方面的。其中關(guān)鍵之一是如何實現(xiàn)軟硬件方面協(xié)同設(shè)計與優(yōu)化,極大的挖掘“確定性”實現(xiàn)系統(tǒng)層面的Strong Scaling 。為了達到這個目標(biāo),Groq設(shè)計了基于“確定性調(diào)度”的數(shù)據(jù)流架構(gòu),硬件上為了消除“不確定性” 在計算、訪存和互聯(lián)架構(gòu)上都進行了定制,并且把一些硬件上不好處理的問題通過特定的接口暴露給軟件解決。軟件上需要利用硬件的特性,結(jié)合上層應(yīng)用做優(yōu)化,還需要考慮易用性、兼容性和可擴展性等,這些需求都對配套工具鏈和系統(tǒng)層面提出很多新的挑戰(zhàn)。

大模型確實給傳統(tǒng)的芯片架構(gòu)帶來了極大的挑戰(zhàn),迫使芯片從業(yè)者發(fā)揮主觀能動性,通過“另辟蹊徑”的方式來尋求突破。值得關(guān)注的是,國內(nèi)也已經(jīng)有一批架構(gòu)創(chuàng)新型的芯片企業(yè),陸續(xù)推出了存算一體或近存計算的產(chǎn)品,例如、知存科技、后摩智能、靈汐科技等。

考慮到芯片的研發(fā)周期通常長達數(shù)年,在嘗試新技術(shù)的時候需要對未來的應(yīng)用(如LLM技術(shù))的發(fā)展趨勢有一個合理的預(yù)判。分析好應(yīng)用的發(fā)展趨勢,通過軟硬件的設(shè)計預(yù)留一定的靈活性和通用性,更能夠保證技術(shù)長期適用性。