目前像是長鑫等企業已經可以實現DDR內存的自研自產,市場上也已經出現了大量的自主品牌的內存,不過對於AI計算卡來說,DDR內存或者說GDDR顯存的帶寬還遠遠不夠,只有像是HBM顯存才能提供足夠的帶寬來讓GPU從事AI訓練等任務。而像是HBM顯存目前被三星、海力士等企業所壟斷,當然長鑫等企業也沒有放棄對於HBM顯存的研發,畢竟現在AI計算卡需要大量的HBM顯存,而對於DRAM等晶片廠商來說是一個巨大的機遇。
有消息稱長鑫已經獲得了美國的批准,可以向國外廠商採購製造HBM顯存的設備,包括後期的測試以及封裝,也就是說長鑫對於HBM顯存的設計研發基本完成,已經進入到了生產階段。這對於廠商來說十分地不同意,畢竟相比較GDDR顯存來說,HBM顯存的工藝更加複雜,結構也更加繁雜,目前在消費級市場上僅有極少一部分顯卡採用了HBM顯存,而像是英偉達的計算卡則是大量採用HBM顯存,並且伴隨著AI訓練卡的熱銷,HBM顯存的需求也是水漲船高。
目前長鑫已經擁有自己的DRAM內存製造廠,預計未來長鑫將會投入更多的資本在新廠房,包括DRAM和HBM顯存的研發與生產。目前國際最先進的HBM顯存為HBM4,將於2026年投產,單晶片帶寬達到了1.2TB/s,預計將會在英偉達B100系列計算卡上使用,而長鑫不知道已經突破到第幾代HBM顯存,如果是主流的HBM3顯存,那也相當不錯。未來自主研發的AI訓練卡也將越來越多,如果再配合自研HBM顯存,自然能夠在供應鏈的選擇上更加自主可控。