記憶體大廠CES大秀HBM實力 AI、云端、高速傳輸新品動能備出
記憶體大廠在CES期間大秀HBM的技術實力,看好高階制程將翻轉產業(yè)景氣走勢??淡傊當z
記憶體產業(yè)復甦跡象明確,AI浪潮快速興起,各家記憶體大廠積極掌握先進制程商機作為成長動能,隨著記憶體成為云端伺服器及AI終端應用不可或缺的要角。
此次2024年CES期間的各大記憶體廠均以AI為聚焦重心,HBM、高速傳輸等新品呈現百花齊放,率先搶攻記憶體從谷底翻身的成長契機。
儘管各大記憶體廠仍背負營運虧損的壓力,但生成式AI採用高頻寬記憶體(HBM)推動價格倍速翻漲,讓記憶體產業(yè)從過去標準化的量產規(guī)模競爭,走向客制化的高技術含量競爭。
近期市場傳出,大客戶NVIDIA提前支付數億美元預付款給SK海力士(SK Hynix)、美光(Micron),以確保2024年AI GPU搭配HBM3E的供貨穩(wěn)定,并降低記憶體業(yè)者財務及投資的壓力。
尤其以SK海力士2023年已在HBM領域搶先攻下一城,取得全球市佔逾5成的領導地位,而三星電子(Samsung Electronics)也緊追在后。
據傳,HBM3、HBM3E陸續(xù)結束產品測試,可望與NVIDIA簽訂供應合約,兩家韓系記憶體廠不僅在HBM互別苗頭,交鋒戰(zhàn)場延伸至CES展會,并擴大戰(zhàn)線至云端伺服器的記憶體介面CXL(Compute Express Link)的布局。
SK海力士在CES展示了HBM3E,號稱是業(yè)界最高的每秒1.18 TB的資料處理速度,滿足AI市場在快速處理海量資料的需求,與前一代產品相比,速度將提高了1.3倍,資料容量也提高1.4 倍,獨家開發(fā)的MR-MUF技術更是SK海力士的強調重點,提升散熱性能約10%。
SK海力士預計將于2024年上半年量產HBM3E,至于CXL透過擴展記憶體和提高AI應用性能受到關注,預計在AI時代下將與HBM3E發(fā)揮相乘的關鍵效益。
三星針對生成式AI的DRAM方案有三大領域,分別為12奈米32 Gb DDR5 DRAM、HBM3E以及CXL記憶體模組產品。
其中,32Gb DDR5 DRAM 是目前單晶片容量最大的DRAM產品,而CXL介面雖然過去推動多年,但AI商機帶來新機會,三星認為,透過在伺服器前端安裝CXL介面的模組產品,將能大幅增加每臺伺服器的記憶體容量,將適合用于處理大量資料的生成式AI平臺。
隨著生成式AI應用逐漸地從云端資料中心擴展至終端邊緣裝置,內建AI功能的PC將在2024年先后登場推出,美光在CES展出的LPCAMM2記憶體被視為AI PC的最后一哩路,採用LPDDR5X DRAM,但更強調降低功耗及節(jié)省空間。
美光強調,LPCAMM2已開始送樣,預計于2024年上半年量產,將導入多家PC大廠的筆電新品。
不僅三大記憶體廠在CES大打AI商機,臺廠鈺創(chuàng)也在CES首度亮相4Gb DDR3 LRTDRAMTM(Long Retention Time Dynamic Random-Access Memory),鎖定在AI應用、KGD異質整合封裝、車載等高溫應用情境的創(chuàng)新型記憶體,以獨家首創(chuàng)的長效資料保存技術為重點訴求。
由于AI應用在高速運算的需求下,傳統DRAM受限于先天物理特性,存取效能會隨著溫度上升而衰減。鈺創(chuàng)表示,4Gb DDR3 LRTDRAM可在攝氏122度的高溫下達到超過104毫秒的100%長時保留,目前4Gb DDR3 LRTDRAM相關驗證已經完成,并開始送樣給客戶。
