AI 正在飛速發展,這確實是科技領域的一大突破,但隨之而來的問題也不容忽視——全球正面臨內存短缺,電子產品價格持續上漲。

簡單來說,AI 對內存的需求激增,擠占了其他行業的供應,導致市場供需失衡。到 2026 年,AI 預計將消耗全球 20% 的 DRAM 供應。像谷歌、AWS 和 OpenAI 這樣的公司,實時內存需求就高達 750PB(1PB=100萬GB),算上冗餘和備份,實際用量直接翻倍。
此外,Meta、蘋果、中國等私有雲 AI 消耗 800PB,訓練下一代 AI 模型還需 500PB 內存。AI 的下一個階段不再是單純比拼算力,而是聚焦內存容量和推理成本,這從 AI 對高速內存的快速消耗中可見一斑。

具體來說,HBM 和 GDDR7 這類高容量存儲需求激增,AI 模型也更傾向於使用這些內存類型。1GB HBM 內存的價格相當於 4GB 標準 DRAM,而 1GB GDDR7 則相當於 1.7GB 標準 DRAM。
受此影響,2026 年 RAM 價格將在今年已上漲 123% 的基礎上再漲 45%,GPU 價格也將在 2026 年 1 月上漲,NVIDIA 計劃將 RTX 50 系列供應量削減 50%,甚至取消「Super」型號。更糟糕的是,AI 對 DRAM 的需求將持續增長,而供應將進一步收緊。在此背景下,全球最大的消費級 RAM 製造商之一美光已退出該市場,轉而專注於企業級領域。






