九色综合狠狠综合久久,色一情一乱一伦一区二区三区,人人妻人人藻人人爽欧美一区,扒开双腿疯狂进出爽爽爽动态图

歡迎訪問(wèn)深圳市中小企業(yè)公共服務(wù)平臺(tái)電子信息窗口

從AIGC商業(yè)化看AI產(chǎn)業(yè)布局和半導(dǎo)體機(jī)會(huì)

2023-03-30 來(lái)源:芯八哥
1432

關(guān)鍵詞: AIGC 商業(yè)化 AI產(chǎn)業(yè)布局

ChatGPT橫空出世,GPT4更“聰明”


2022年11月30日,美國(guó)人工智能研究公司OpenAI發(fā)布人工智能聊天機(jī)器人ChatGPT,推出不久便在全球范圍內(nèi)爆火。短短5天,ChatGPT的注冊(cè)用戶數(shù)就超過(guò)100萬(wàn),2023年1月末月活用戶突破1億,成為史上增長(zhǎng)最快的消費(fèi)者應(yīng)用。從用戶體驗(yàn)來(lái)看, ChatGPT不僅能實(shí)現(xiàn)流暢的文字聊天,還可以勝任翻譯、作詩(shī)、寫(xiě)新聞、做報(bào)表、編代碼等相對(duì)復(fù)雜的語(yǔ)言工作。


然而,技術(shù)進(jìn)步是不會(huì)停止的。


僅僅過(guò)了三個(gè)多月,2023年3月15日,OpenAI發(fā)布了ChatGPT的最新“升級(jí)版本”—— GPT4模型,再次引爆社交媒體。比起ChatGPT,GPT-4擁有更強(qiáng)大的識(shí)圖能力,文字輸入的上限提升到了2.5萬(wàn)字,它能更加流暢準(zhǔn)確地回答用戶的問(wèn)題,能寫(xiě)歌詞,寫(xiě)創(chuàng)意文本,且風(fēng)格多變。實(shí)驗(yàn)表明,GPT-4在部分專業(yè)測(cè)試和學(xué)術(shù)基準(zhǔn)上,表現(xiàn)出了與人類相當(dāng)?shù)乃健?/span>


圖片來(lái)源網(wǎng)絡(luò)


是的,它變的更加“聰明”了。


不同于以往高高在上的實(shí)驗(yàn)室研究成果,這次AI變革的成果正在迅速落地并走向商業(yè)化。據(jù)路透社報(bào)道,OpenAI在2022年的收入預(yù)計(jì)只有約8000萬(wàn)美元。不過(guò)OpenAI表示,到2024年,OpenAI的收入有望提高到10億美元。紅杉資本預(yù)測(cè):ChatGPT這類生成式AI工具,讓機(jī)器開(kāi)始大規(guī)模涉足知識(shí)類和創(chuàng)造性工作,未來(lái)預(yù)計(jì)能夠產(chǎn)生數(shù)萬(wàn)億美元的經(jīng)濟(jì)價(jià)值。


在3月21日晚的GTC開(kāi)發(fā)者大會(huì)上,NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示,“我們正處于AI的iPhone時(shí)刻,”



AIGC商業(yè)化撬動(dòng)萬(wàn)億AI市場(chǎng)


AIGC(AI Generated Content)即人工智能自動(dòng)生成內(nèi)容,可以在創(chuàng)意、表現(xiàn)力、迭代、傳播、個(gè)性化等方面,充分發(fā)揮技術(shù)優(yōu)勢(shì),打造新的數(shù)字內(nèi)容生成與交互形態(tài)。GPT系列是AIGC的一種商業(yè)化方向。


AIGC也被認(rèn)為是繼UGC、PGC/UGC之后的新型內(nèi)容生產(chǎn)方式。UGC是用戶生成內(nèi)容,起源于Web2.0時(shí)代,例如博客、視頻分享、Youtube等應(yīng)用方案;PGC/UGC分別指專業(yè)生產(chǎn)內(nèi)容與職業(yè)生成內(nèi)容,例如視頻創(chuàng)收平臺(tái)優(yōu)酷、土豆平臺(tái)節(jié)目《暴走漫畫(huà)》、《萬(wàn)萬(wàn)沒(méi)想到》、或是抖音、快手等用戶生產(chǎn)內(nèi)容。AIGC在創(chuàng)作成本上具有顛覆性,而且具備降本增效的多重優(yōu)勢(shì),并且有望解決目前PGC/UGC創(chuàng)作質(zhì)量參差不齊或是降低其有害性內(nèi)容傳播等問(wèn)題,同時(shí)創(chuàng)意激發(fā),提升內(nèi)容多樣性。此外,價(jià)格上OpenAI最貴的AIGC語(yǔ)言模型達(dá)芬奇為每0.02美元750個(gè)單詞,AIGC圖型模型價(jià)格僅為0.020美元一張。


AIGC 應(yīng)用場(chǎng)景

資料來(lái)源: 中國(guó)信息通信研究院, 京東探索研究院


下一代互聯(lián)網(wǎng)業(yè)態(tài)對(duì)內(nèi)容產(chǎn)出效率、內(nèi)容消費(fèi)的蓬勃需求,將驅(qū)動(dòng) AIGC 快速發(fā)展。結(jié)合Gartner 及 Acumen Research and Consulting 預(yù)測(cè), 2025 年 AIGC 滲透率將達(dá) 10%,至2030 年 AIGC 市場(chǎng)規(guī)模達(dá) 1108 億美元 ,對(duì)應(yīng) 2021-2030 年 CAGR 達(dá) 34%。其中,對(duì)話式AI 預(yù)計(jì) 2030 年市場(chǎng)規(guī)模達(dá) 34 億美元,而2021 年僅為 5.2 億美元。當(dāng)前 AIGC 企業(yè)變現(xiàn)模式主要為:訂閱付費(fèi)(每月訂閱)、按量收費(fèi)(數(shù)據(jù)請(qǐng)求量、計(jì)算量、圖片張數(shù)、模型訓(xùn)練次數(shù)等),未來(lái) MaaS(模型即服務(wù))有望復(fù)制 SaaS 企服路線迎來(lái)需求爆發(fā)奇點(diǎn) 。


數(shù)據(jù)來(lái)源:Acumen Research and Consulting



群雄逐鹿,中美AI模型軍備競(jìng)賽正在升級(jí)


AIGC的發(fā)展離不開(kāi)AI 模型。AI 模型最初是針對(duì)特定應(yīng)用場(chǎng)景需求進(jìn)行訓(xùn)練(即小模型)。小模型的通用性差,換到另一個(gè)應(yīng)用場(chǎng)景中可能并不適用,需要重新訓(xùn)練,這牽涉到很多調(diào)參、調(diào)優(yōu)的工作及成本。同時(shí),由于模型訓(xùn)練需要大規(guī)模的標(biāo)注數(shù)據(jù),在某些應(yīng)用場(chǎng)景的數(shù)據(jù)量少,訓(xùn)練出來(lái)的模型精度不理想的情況,這使得 AI 研發(fā)成本高,效率低的情況。


直到2017 年,由Google Brain 團(tuán)隊(duì)推出深度學(xué)習(xí)模型Transformer,采用自注意力機(jī)制, 對(duì)輸入數(shù)據(jù)的每一部分的重要性進(jìn)行差異加權(quán),主要用于自然語(yǔ)言處理(NLP) 和計(jì)算機(jī)視覺(jué)(CV)領(lǐng)域。目前,基于Transformer的預(yù)訓(xùn)練語(yǔ)言模型已成為NLP領(lǐng)域的主流。ChatGPT是一個(gè)出色的NLP新模型。


Transformer的Encoder-Decoder示意圖

資料來(lái)源:《Attention is All You Need》(Google)


眾所周知,GPT-4是一個(gè)多模態(tài)大模型,那到底什么是多模態(tài)呢?


模態(tài)是一種社會(huì)性、文化性的資源,是物質(zhì)媒體經(jīng)過(guò)時(shí)間塑造而形成的意義潛勢(shì)。從社會(huì)符號(hào)學(xué)的角度上對(duì)模態(tài)的認(rèn)知可以是聲音、文字和圖像等。人類通過(guò)眼睛、耳朵、觸覺(jué)等各種感覺(jué)器官接觸世界,每種信息的來(lái)源或形式都可以稱之為模態(tài)。同時(shí),模態(tài)也可以是與人類通過(guò)自身的感覺(jué)器官?gòu)耐獠康玫降男畔?,比如說(shuō)嗅覺(jué)、視覺(jué)、聽(tīng)覺(jué)等。隨著人工智能領(lǐng)域機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的不斷發(fā)展,研究?jī)?nèi)容的不斷增加和更新,逐漸也賦予了模態(tài)新的定義,即機(jī)器對(duì)包含數(shù)據(jù)表征模式、數(shù)據(jù)收集模式、數(shù)據(jù)特征主體這3個(gè)外部信息的感知模式或信息信道。


多模態(tài)機(jī)器學(xué)習(xí)(MultiModal Machine Learning, MMML)研究包含不同模態(tài)數(shù)據(jù)的機(jī)器學(xué)習(xí)問(wèn)題,一般的模態(tài)有視覺(jué)、文字和聲音。它們通常來(lái)自不同的傳感器,數(shù)據(jù)的形成方式和內(nèi)部結(jié)構(gòu)有很大的不同。例如,圖像是存在于自然界中的連續(xù)空間,文本是依賴于人類知識(shí)、語(yǔ)法規(guī)則而組織起來(lái)的離散空間。多模態(tài)機(jī)器學(xué)習(xí)是指通過(guò)機(jī)器學(xué)習(xí)的方法實(shí)現(xiàn)處理、理解及融合多源模態(tài)信息的能力。目前比較熱門(mén)的研究方向是文本-圖像的模型及應(yīng)用。


隨著ChatGPT的爆火以及多模態(tài)大模型GPT-4的推出,中美AI模型軍備競(jìng)賽正在升級(jí)。


美國(guó)憑借在模型迭代和算力上的先發(fā)優(yōu)勢(shì),聚焦大模型 API 的基礎(chǔ)設(shè)施層開(kāi)發(fā),帶動(dòng)信息產(chǎn)業(yè)和科學(xué)行業(yè)發(fā)展,并加速商業(yè)化。中國(guó)公司在 AI 數(shù)據(jù)及大模型參數(shù)量層面與美國(guó)差距較小,但模型迭代和訓(xùn)練仍有較大提升空間,大部分平臺(tái)更加聚焦 AIGC 內(nèi)容和應(yīng)用端。


美國(guó)主要大模型包括 OpenAI 的 GPT-3、 Anthropic 的 Claude、英偉達(dá)與微軟的 Megatron Turing-NLG 以及 Meta 的 OPT 等。其中,OpenAI 已經(jīng)上線了 GPT-4,據(jù)傳參數(shù)量將達(dá)到萬(wàn)億級(jí)。Google 把 GPT 系列模型作為紅線,并全力投入 LLM(大語(yǔ)言模型)模型的構(gòu)建。


中國(guó)大模型主要包括百度文心、華為盤(pán)古、阿里通義、騰訊混云以及商湯的視覺(jué)模型等。百度推出文心大模型,基本實(shí)現(xiàn)跨模態(tài)和多下游多領(lǐng)域的應(yīng)用,目前已上線文心一言。華為通過(guò)模型泛化,解決傳統(tǒng)AI 作坊式開(kāi)放模式下不能解決的 AI 規(guī)?;彤a(chǎn)業(yè)化難題。


資料來(lái)源:各公司官網(wǎng),芯八哥整理


整體來(lái)看,美國(guó)在模型上仍具有先發(fā)優(yōu)勢(shì),源于長(zhǎng)時(shí)間的技術(shù)迭代和數(shù)據(jù)累積。從 2018 年發(fā)布 GPT 1.0,到 2021 年發(fā)布 GPT-3.5 和 Instruct GPT, OpenAI 已形成了一系列海量數(shù)據(jù)積累和訓(xùn)練模型,2023年3月發(fā)布的GPT-4 版本(據(jù)傳萬(wàn)億級(jí)參數(shù)量)。雖然當(dāng)前部分中國(guó)大模型參數(shù)量能達(dá)到千億級(jí)乃至萬(wàn)億級(jí),但數(shù)據(jù)質(zhì)量及訓(xùn)練模型尚需時(shí)間精進(jìn)。



半導(dǎo)體產(chǎn)業(yè)機(jī)會(huì):GPU主導(dǎo)千億AI芯片市場(chǎng)


OpenAI預(yù)計(jì)人工智能科學(xué)研究要想取得突破,所需要消耗的計(jì)算資源每3~4個(gè)月就要翻一倍,資金也需要通過(guò)指數(shù)級(jí)增長(zhǎng)獲得匹配。在算力方面,GPT-3.5在微軟Azure AI超算基礎(chǔ)設(shè)施(由V100GPU組成的高帶寬集群)上進(jìn)行訓(xùn)練,總算力消耗約 3640PF-days(即每秒一千萬(wàn)億次計(jì)算,運(yùn)行3640天)。在大數(shù)據(jù)方面,GPT-2用于訓(xùn)練的數(shù)據(jù)取自于Reddit上高贊的文章,數(shù)據(jù)集共有約800萬(wàn)篇文章,累計(jì)體積約40G;GPT-3模型的神經(jīng)網(wǎng)絡(luò)是在超過(guò)45TB的文本上進(jìn)行訓(xùn)練的,數(shù)據(jù)相當(dāng)于整個(gè)維基百科英文版的160倍。按照量子位給出的數(shù)據(jù),將一個(gè)大型語(yǔ)言模型(LLM)訓(xùn)練到GPT-3級(jí)的成本高達(dá)460萬(wàn)美元。


最新的GPT3.5在訓(xùn)練中使用了微軟專門(mén)建設(shè)的AI計(jì)算系統(tǒng),由1萬(wàn)個(gè)英偉達(dá)V100 GPU組成的高性能網(wǎng)絡(luò)集群,總算力消耗約3640PFdays(PD) , 即假如每秒計(jì)算一千萬(wàn)億(1020) 次,需要計(jì)算3640天。采購(gòu)一片英偉達(dá)頂級(jí)GPU成本為8萬(wàn)元,GPU服務(wù)器成本通常超過(guò)40萬(wàn)元。對(duì)于ChatGPT而言,支撐其算力基礎(chǔ)設(shè)施至少需要上萬(wàn)顆英偉達(dá)GPU A100,一次模型訓(xùn)練成本超過(guò)1200萬(wàn)美元。


數(shù)據(jù)來(lái)源:根據(jù)公開(kāi)資料,芯八哥整理


伴隨著人工智能應(yīng)用場(chǎng)景的多元化,新算法、新模型不斷涌現(xiàn),模型中的參數(shù)數(shù)量呈指數(shù)級(jí)增長(zhǎng),對(duì)算力的需求越來(lái)越大。AI芯片是AI算力的“心臟”。根據(jù)WSTS數(shù)據(jù),2020年全球人工智能芯片市場(chǎng)規(guī)模約為175億美元。隨著人工智能技術(shù)日趨成熟,數(shù)字化基礎(chǔ)設(shè)施不斷完善,人工智能商業(yè)化應(yīng)用將加落地,推動(dòng)AI芯片市場(chǎng)高速增長(zhǎng),預(yù)計(jì)2025年全球人工智能芯片市場(chǎng)規(guī)模將達(dá)到726億美元。


數(shù)據(jù)來(lái)源:WSTS


AI 芯片主要分為三種,分別是 GPU, FPGA 與 ASIC 芯片。不同種類別的 AI 計(jì)算芯片有各自突出的優(yōu)勢(shì)和適用的領(lǐng)域,貫穿 AI 訓(xùn)練與推理階段。目前 CPU 在人工智能領(lǐng)域中的應(yīng)用有限,主要受限于 CPU 在 AI 訓(xùn)練方面的計(jì)算能力不足。


資料來(lái)源:各公司官網(wǎng),芯八哥整理


目前來(lái)看,GPU 仍然是 AI 應(yīng)用的主導(dǎo)芯片,主要因?yàn)樗哂袕?qiáng)大的計(jì)算能力和高通用適用性,廣泛應(yīng)用于各種圖形處理、數(shù)值模擬及人工智能算法領(lǐng)域。較低的開(kāi)發(fā)成本也時(shí)期能夠快速在各個(gè)垂直下游領(lǐng)域被廣泛應(yīng)用,加速優(yōu)化拓展。


在獨(dú)立 GPU 領(lǐng)域,英偉達(dá)占據(jù)主導(dǎo)地位,份額高達(dá)88% 。英偉達(dá) GPU 因其高性能和對(duì) CUDA 的支持而廣泛應(yīng)用于 AI和機(jī)器學(xué)習(xí)領(lǐng)域。因此, OpenAI 主要使用英偉達(dá)GPU來(lái)訓(xùn)練和運(yùn)行其 AI 模型,如 GPT-3 和 ChatGPT。據(jù)公開(kāi)數(shù)據(jù)顯示, ChatGPT 已導(dǎo)入至少 1 萬(wàn)個(gè)英偉達(dá)高端 GPU。


數(shù)據(jù)來(lái)源:JPR


國(guó)內(nèi) GPU 主要上市公司中,景嘉微通過(guò)自主研發(fā) GPU 并規(guī)?;逃茫菄?guó)內(nèi)顯示控制市場(chǎng)龍頭企業(yè)。此外,海光信息、寒武紀(jì)等公司均有布局 GPU 產(chǎn)品。受美國(guó)對(duì)中國(guó) GPU 芯片出口管制影響,預(yù)計(jì)國(guó)產(chǎn) GPU 芯片替代將快速推進(jìn)。


在加速計(jì)算GPU領(lǐng)域,國(guó)內(nèi)壁仞科技發(fā)布的BR100產(chǎn)品,在FP32單精度計(jì)算性能實(shí)現(xiàn)超越NVIDIA A100芯片,但是不支持FP64雙精度計(jì)算;天數(shù)智芯推出的天垓100的FP32單精度計(jì)算性能實(shí)現(xiàn)超越A100芯片,但是在INT8整數(shù)計(jì)算性能方面卻低于A100;海光推出的DCU Z100實(shí)現(xiàn)了FP64雙精度浮點(diǎn)計(jì)算,但是其性能為A100的60%左右。因此,從高精度浮點(diǎn)計(jì)算能力來(lái)看,國(guó)內(nèi)GPU產(chǎn)品與國(guó)外產(chǎn)品的計(jì)算性能仍或有一代以上差距。


但是,GPU的表現(xiàn)不僅體現(xiàn)在硬件上,軟件層面對(duì)于生態(tài)的布局尤其重要,目前國(guó)內(nèi)企業(yè)多采用OpenCL進(jìn)行自主生態(tài)建設(shè),但這是需要大量的時(shí)間進(jìn)行。對(duì)比AMD從2013年開(kāi)始建設(shè)GPU生態(tài)近10年時(shí)間后才推出用于通用計(jì)算的ROCm開(kāi)放式軟件平臺(tái),國(guó)內(nèi)廠商在軟件和生態(tài)層面與英偉達(dá)CUDA生態(tài)的差距相較于硬件更為明顯。


數(shù)據(jù)來(lái)源:各公司官網(wǎng)


全球AI計(jì)算平臺(tái)巨頭的產(chǎn)品布局


英偉達(dá)目前是全球 AI 計(jì)算平臺(tái)龍頭,產(chǎn)品矩陣包含硬件、系統(tǒng)軟件、平臺(tái)軟件和應(yīng)用四層。硬件方面,最底層基于 CPU、 GPU、 DPU 三類芯片,形成三大算力支柱;系統(tǒng)層面,從云端到邊緣部署廣泛的多種系統(tǒng),如 RTX(云端游戲服務(wù)器)、DGX(一站式 AI 解決方案)、HGX(AI 超級(jí)計(jì)算平臺(tái))、EGX(邊緣AI 計(jì)算平臺(tái))、OVX(數(shù)字孿生模擬)等,為開(kāi)發(fā)者提供硬件基礎(chǔ)設(shè)施。平臺(tái)軟件層面,英偉達(dá)為開(kāi)發(fā)者提供 150 個(gè)加速庫(kù)服務(wù),涉及機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、計(jì)算機(jī)視覺(jué)、 基因檢測(cè)等細(xì)分技術(shù)領(lǐng)域。應(yīng)用方面,英偉達(dá)打造了一系列針對(duì)特定領(lǐng)域的 AI 應(yīng)用框架,如MODULUS(物理機(jī)器學(xué)習(xí)框架)、RIVA (語(yǔ)音 AI 應(yīng)用)、 Isaac(機(jī)器人平臺(tái))等,這些框架都基于 NVIDIA HPC、 NVIDIA AI 和 NVIDIA Omniverse 平臺(tái)構(gòu)建。每一層級(jí)都對(duì)計(jì)算機(jī)制造商、服務(wù)提供商和開(kāi)發(fā)者開(kāi)放,軟硬一體的解決方案適用于廣泛下游領(lǐng)域。


英偉達(dá)基于 GPU、 DPU 和 CPU 構(gòu)建加速計(jì)算平臺(tái)生態(tài),造就核心技術(shù)壁壘。


英偉達(dá)產(chǎn)品規(guī)劃圖

資料來(lái)源:英偉達(dá)官網(wǎng)


GPU方面,主要產(chǎn)品 Tesla GPU 系列迭代速度快,從 2008 年至 2022 年,先后推出 8 種 GPU 架構(gòu),平均兩年多推出新架構(gòu),半年推出新產(chǎn)品。超快的迭代速度使英偉達(dá)的 GPU 性能走在 AI 芯片行業(yè)前沿,引領(lǐng)人工智能計(jì)算領(lǐng)域發(fā)生變革。


DPU 方面,英偉達(dá)于2019年戰(zhàn)略性收購(gòu)以色列超算以太網(wǎng)公司 Mellanox,利用其InfiniBand(無(wú)限帶寬)技術(shù)設(shè)計(jì)出 Bluefield 系列 DPU 芯片,彌補(bǔ)其生態(tài)在數(shù)據(jù)交互方面的不足。InfiniBand 與以太網(wǎng)相同,是一種計(jì)算機(jī)網(wǎng)絡(luò)通信標(biāo)準(zhǔn),但它具有極高的吞吐量和極低的延遲,通常用于超級(jí)計(jì)算機(jī)的互聯(lián)。英偉達(dá)的 Bluefield DPU 芯片可用于分擔(dān) CPU 的網(wǎng)絡(luò)連接算力需求,從而提高云數(shù)據(jù)中心的效率,降低運(yùn)營(yíng)成本。


CPU 方面,自主設(shè)計(jì) Grace CPU 并推出 Grace Hopper 超級(jí)芯片,解決內(nèi)存帶寬瓶頸問(wèn)題。采用 x86 CPU 的傳統(tǒng)數(shù)據(jù)中心會(huì)受到 PCIe 總線規(guī)格的限制,CPU 到 GPU 的帶寬較小,計(jì)算效率受到影響;而 Grace Hopper 超級(jí)芯片提供自研 Grace CPU+GPU 相結(jié)合的一致內(nèi)存模型,從而可以使用英偉達(dá) NVLink-C2C 技術(shù)快速傳輸,其帶寬是第 5 代 PCIe 帶寬的 7 倍,極大提高了數(shù)據(jù)中心的運(yùn)行性能。


資料來(lái)源:英偉達(dá)官網(wǎng)


英偉達(dá) GPU 因其高性能和對(duì) CUDA 支持而廣泛應(yīng)用于 AI 和機(jī)器學(xué)習(xí)領(lǐng)域。OpenAI 主要使用英偉達(dá) GPU 來(lái)訓(xùn)練和運(yùn)行 AI 模型,如 GPT-3 和 ChatGPT。據(jù)公開(kāi)數(shù)據(jù)顯示, ChatGPT 已導(dǎo)入至少1萬(wàn)個(gè)英偉達(dá)NVIDIA A100。作為Ampere架構(gòu)首發(fā)的NVIDIA A100,相較Tesla V100 可提高2.5 倍HPC 運(yùn)算量,單片A100單價(jià)約為8萬(wàn)元人民幣。


H100 所結(jié)合的技術(shù)創(chuàng)新,可加速大型語(yǔ)言模型速度,比A100快30 倍,提供領(lǐng)先業(yè)界的對(duì)話式人工智能加速(類似ChatGPT)。H100于2022年3月22日推出, 配備了 80 GB 顯存,搭載 NVIDIA Hopper HPC GPU,采用臺(tái)積電4nm制程,單價(jià)超過(guò)20萬(wàn)元。H100 配備第四代Tensor核心和具有FP8精確度的Transformer Engine,能夠依據(jù)動(dòng)態(tài)管理與選擇FP8與FP16,并自處理模型每一層FP8與FP16的自動(dòng)轉(zhuǎn)換,相對(duì)現(xiàn)行的A100架構(gòu),能使AI訓(xùn)練提升9倍、并使推理能提升30倍,同時(shí)不影響精確性。


目前華碩、源訊、戴爾、INGRASYS、技嘉、聯(lián)想與美超微( Supermicro)等NVIDIA的眾多合作伙伴推出搭載A100/H100產(chǎn)品,已在AWS、Google Cloud、Microsoft Azure 及 Oracle Cloud Infrastructure等各大云端平臺(tái)上使用。