真相殘酷,ChatGPT的狂歡與中國無關(guān),因為AI芯片差距二十年
近日,ChatGPT火爆異常,一度被認(rèn)為即將替代腦力工作,因為ChatGPT可以重塑一切數(shù)據(jù),完成信息編寫、內(nèi)容創(chuàng)建、客戶聊天、法律文件等。
為此,各大專家也預(yù)測了未來會被ChatGPT替代的多種工作,包括:律師、投資顧問、報稅師、會計師、醫(yī)療診斷專家、客服、營銷顧問、編劇、新聞工作者、程序員等。
沒想到,程序員們努力打造的人工智能居然能夠代替自己,果然是“上岸第一劍,先斬意中人”。
二級市場上,各類上市公司開始瘋狂蹭熱點(diǎn),沾上AI就大漲,股價就像坐上了火箭,短短幾個交易日大漲超過50%甚至翻倍。
但實(shí)際上,ChatGPT真的沒有想象中的那樣,隨隨便便就顛覆。ChatGPT歸根結(jié)底還是AI(人工智能),而AI的基礎(chǔ)就是算力,算力依靠的是芯片。
如果造不出頂級的AI芯片,就沒有足夠的算力提供給ChatGPT,自然也就沒有所謂的顛覆了。
那么問題來了,我國的AI芯片如何呢?與英偉達(dá)差距有多少呢?
ChatGPT基礎(chǔ)是AI芯片
AI芯片是一種專門處理人工智能計算、應(yīng)用等任務(wù)的一種芯片,也被稱為AI加速器或計算卡。
在架構(gòu)方面來看,AI芯片主要分為:GPU (圖形處理器)、FPGA (現(xiàn)場可編程門陣列)、ASIC(專用集成電路)。
那么這些AI芯片如何使用呢?是不是一口氣全都堆上呢?當(dāng)然不是!
在實(shí)際應(yīng)用中,AI芯片又分為云端、邊緣、終端三種應(yīng)用場景。不同的場景根據(jù)實(shí)際情況搭配不同的AI芯片。
在云端,AI不僅要處理大量的數(shù)據(jù),同時還要進(jìn)行各種各樣的AI服務(wù),包括大量的AI訓(xùn)練和推理工作,對AI芯片的算力要求最高;
邊緣就是云端與終端之間的連接網(wǎng)絡(luò),在此設(shè)立一些節(jié)點(diǎn),用AI芯片承擔(dān)部分算力,可以有效降低云端的壓力,同時提高整個AI網(wǎng)絡(luò)的效率;
終端就是我們的手機(jī)、電腦、汽車、家電、監(jiān)控等設(shè)備,這里的AI芯片要嵌入設(shè)備內(nèi)部,在終端采集數(shù)據(jù),并完成數(shù)據(jù)處理,主要負(fù)責(zé)推斷。
根據(jù)以上的內(nèi)容,我們可以看出云端服務(wù)器方面通常使用GPU,利用其高性能高功耗的特點(diǎn),可以批量處理密集型任務(wù);在邊緣端,F(xiàn)PGA更適合信號處理系統(tǒng),各類接口;而我們的手機(jī)、電腦、汽車則需要更專用的集成電路。
但無論何種類型的AI芯片,它們都需要一個共同的特性,那就是“強(qiáng)大的算力”。
根據(jù)Open AI測算:自2012年以來,全球頭部AI模型訓(xùn)練算力需求3-4個月翻一番,每年頭部訓(xùn)練模型所需算力增長幅度高達(dá)10倍。
對于AI算力的快速需求,我們也可以從各類事件中感受到。
1、阿爾法狗大戰(zhàn)李世石
2016年3月9日,阿爾法狗經(jīng)過三個多小時鏖戰(zhàn),擊敗了圍棋九段高手李世石。這是AI第一次展現(xiàn)出它驚人的實(shí)力。
當(dāng)時的阿爾法狗用了1202個CPU、176個GPU,約有800多萬核并行計算,同時還花費(fèi)電費(fèi)3千美元。而李世石大概需要兩個饅頭,一碟泡菜,一瓶礦泉水就可以了吧!
可見彼時的AI因為算力不足,只等堆加數(shù)量,同時能耗也非常高。
2017年,升級版的阿爾法狗擊敗了國際圍棋大師柯潔,再次引發(fā)人們的關(guān)注。
2、百度無人駕駛汽車
2017年7月6日,百度召開AI開發(fā)者大會,百度總裁陸奇在介紹“Apollo”計劃時,大屏幕出現(xiàn)了百度創(chuàng)始人、董事長李彥宏坐在無人駕駛汽車行駛在北京五環(huán)的畫面。
從畫面中可以看到,李彥宏坐在副駕駛位置,全程不碰方向盤,全部由AI操控。
李彥宏表示:“汽車行駛很平穩(wěn),感覺非常不錯?!?/span>
據(jù)悉百度的無人駕駛汽車Apollo,采用了英特爾和英偉達(dá)兩家公司的AI芯片。
自動駕駛汽車上路前需要超過100億公里的測試,如果不采用AI芯片,而擁純?nèi)斯さ脑挘枰?00輛汽車7*24小時測試100年。而搭載了AI芯片后的Apollo一天就可以跑上百萬公里。
3、ChatGPT的狂歡
人工智能實(shí)驗室OpenAI研發(fā)的ChatGPT聊天機(jī)器人,能夠進(jìn)行普通聊天、信息咨詢、撰寫詩詞作文、修改代碼等,號稱能夠替代腦力工作者。
不少網(wǎng)友通過ChatGPT,“撰寫”了玄幻類、科普類的文章,甚至論文;五花八門的提問也讓ChatGPT應(yīng)接不暇。
那么ChatGPT需要多少算力呢?
ChatGPT的總算力消耗約為3640PF-days,至少要7-8個投資30億規(guī)模的數(shù)據(jù)中心才能支撐ChatGPT的運(yùn)行。
光從模型訓(xùn)練算力具體來看,至少需要上萬顆英偉達(dá) GPU A100,以參數(shù)規(guī)模為1750億的GPT-3為例,一次模型訓(xùn)練成本超過 1200 萬美元。
從這三個事件中我們可以看出,AI芯片的算力需求正在快速的增長,并且已經(jīng)逼近現(xiàn)有芯片算力的極限,這就倒逼芯片廠商快速的迭代升級。
那么,在眾多芯片廠商中,誰能承擔(dān)的起未來算力需求呢?
GPU領(lǐng)導(dǎo)者英偉達(dá)
在AI芯片領(lǐng)域,英偉達(dá)跑在了前面。
英偉達(dá)(NVIDIA)由美籍華人黃仁勛創(chuàng)建,總部位于加州圣克拉拉市,是一家設(shè)計顯示芯片和主板芯片組為主的人工智能計算公司,也是GPU的發(fā)明者。
可以說,英偉達(dá)定義了GPU,推動了圖形計算的快速發(fā)展,也推動了AI的快速發(fā)展。
1999年時,圖形顯示需求規(guī)模急速增加,CPU已經(jīng)無法滿足,此時,英偉達(dá)順勢推出了世界第一款GPU GeForce 256,成為CPU外最重要的邏輯芯片。
英偉達(dá)高速發(fā)展的十幾年中,平均每半年就推出一款新品,每兩年就更新一次架構(gòu),在AI、自動駕駛領(lǐng)域,就連英特爾、AMD也只能望其項背。
2010年,谷歌的AI訓(xùn)練采用了16000臺英特爾CPU進(jìn)行訓(xùn)練,后來英偉達(dá)為其提供了GPU,僅僅需要12個GPU就完成了這項工作。
2021年,云計算、自動駕駛、大型網(wǎng)游等對算力的快速需求,極大的刺激了英偉達(dá)打造更為先進(jìn)的GPU H100。
英偉達(dá)H100采用了臺積電5nm工藝,比上一代A100在制造工藝方面更為先進(jìn);
在晶體管數(shù)量方面,H100集成了800億個晶體管,比A100(540億)提升了48%,整體性能提升了6倍,算力提升3.2倍。
H100還可以加速動態(tài)規(guī)劃,優(yōu)化路徑,在這種條件下,H100的算法將進(jìn)一步提升7倍。
H100的在數(shù)據(jù)吞吐量上提升了30倍,同時可實(shí)現(xiàn)3TB/s 的顯存帶寬,以及5TB/s的互聯(lián)網(wǎng)速度。
H100還可以把單個GPU分拆為7個,同時進(jìn)行不同的運(yùn)算任務(wù),而且還可以將部分能力擴(kuò)展7倍。
H100還是全球首個加密計算GPU,在提高性能的同時,有效的保護(hù)用戶數(shù)據(jù)和隱私,非常適合應(yīng)用在醫(yī)療、金融和云計算領(lǐng)域。
除了H100,英偉達(dá)最新研發(fā)的自動駕駛芯片Thor,號稱業(yè)內(nèi)最強(qiáng),融合了CPU、AI加速架構(gòu)和GPU,算力高達(dá)2000TOPS,是目前高通最新車載芯片8295(30TOPS)的66倍。
同時,英偉達(dá)正在開發(fā)新一代人工智能計算機(jī)——Eos,搭載了4600個H100 GPU,比世界上最快的超算還快1.4倍。很快,全球最快的計算機(jī)將與人們見面。
如今,英偉達(dá)在GPU領(lǐng)域市場份額高達(dá)70%,獨(dú)立顯卡領(lǐng)域市場份額更是高達(dá)86%。
作為全球領(lǐng)先的AI芯片研發(fā)公司,英偉達(dá)將在AI快速發(fā)展的浪潮中,賺得盆滿缽滿。而收入重新投入研發(fā)中,形成良性循環(huán),未來的英偉達(dá)真的無法想象。
那么國產(chǎn)AI芯片與英偉達(dá)差距有多大呢?
國產(chǎn)AI芯片性能如何
國產(chǎn)AI芯片公司大大小小十幾家,包括:龍芯、景嘉微、華為海思、摩爾線程、璧仞科技、天數(shù)智芯等等,但與英偉達(dá)比起來還差很多。
景嘉微是國內(nèi)領(lǐng)先的GPU廠商,成立于2006年,總部位于湖南長沙。經(jīng)過十幾年的發(fā)展,景嘉微GPU性能如何呢?
根據(jù)官方數(shù)據(jù),景嘉微JM9231核心頻率為1.8 GHz,浮點(diǎn)性能可達(dá)8TFLOPS,落后英偉達(dá)最先進(jìn)的Thor(2000TFLOPS)250倍。
璧仞科技公司研發(fā)的壁仞100,采用了7nm工藝制程,晶體管數(shù)量達(dá)到了770億顆晶體管,具有高算力、高通用性、高能效三大優(yōu)勢。
在算力方面,16位浮點(diǎn)算力達(dá)到1000T以上、8位定點(diǎn)算力達(dá)到2000T以上,號稱領(lǐng)先國際大廠3倍。
從算力來看,壁仞100直接對標(biāo)了英偉達(dá)H100,這著實(shí)令人驚嘆,似乎不久之后,我們再也不需要依賴英偉達(dá)了,但事實(shí)真的如此嗎?
英偉達(dá)的GPU之所以能制霸全球,強(qiáng)大的CUDA生態(tài)系統(tǒng)絕對是重要關(guān)鍵。
CUDA全稱Compute Unified Device Architecture,翻譯成漢語就是統(tǒng)一計算架構(gòu),這是由英偉達(dá)所推出的一種集成技術(shù),是英特爾對GPU的正式名稱。
目前GPU市場上,英特爾一家獨(dú)大,70%以上的市場都被其掌控著。如果國產(chǎn)GPU廠商想要生存發(fā)展,就必須兼容CUDA。
但CUDA是英偉達(dá)的技術(shù),并且英偉達(dá)發(fā)展迅速,芯片更新速度非???,想要100%的兼容是根本做不到的。
怎么辦呢?一方面魔改,一方面發(fā)展自己的生態(tài),但是難度實(shí)在太大了,因此國內(nèi)GPU廠商日子都很難過。
更為要命的是:一旦性能、算力領(lǐng)先,威脅到美企的地位,必然會遭受打壓封鎖。
那么國產(chǎn)GPU廠商就會陷入“華為式”的被動,最典型的就是無人代工。
內(nèi)地芯片制造技術(shù)最強(qiáng)的是中芯國際,目前只能量產(chǎn)12nm工藝的芯片,而英偉達(dá)H100采用了5nm工藝,相差2代。
而中芯國際CEO梁孟松也表示,中芯國際目前攻克了7nm技術(shù),但苦于沒有EUV光刻機(jī),因此只能止步于12nm工藝。
EUV光刻機(jī)是工業(yè)皇冠上的明珠,由10萬個精密零部件組成,這些零部件由全球2000家公司提供。一個國家單獨(dú)完成EUV光刻機(jī)的研發(fā)被稱為“不可能的工作”。
加上EDA工具、半導(dǎo)體材料方面的落后,國產(chǎn)GPU之路還很長,距離英偉達(dá)還很遠(yuǎn)。
寫到最后
ChatGPT火出了圈,但萬丈高樓平地起,靠的是良好的基礎(chǔ),這個基礎(chǔ)就是AI芯片。
先進(jìn)的AI芯片代表著強(qiáng)大的算力,強(qiáng)大的算力才能支持人工智能繼續(xù)更新迭代,最終為人類分擔(dān)大量的腦力、體力勞動。
我國的AI芯片在設(shè)計和生態(tài)方面遠(yuǎn)落后于英偉達(dá),制造、設(shè)備、材料方面也差距甚大,要想達(dá)到世界領(lǐng)先,支撐起AI需求的強(qiáng)大算力,至少還需要二十年,甚至更久。
所以說,目前的ChatGPT對于我們來說就是概念、炒作,我們距離真正的人工智能還很遠(yuǎn)。
