宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

2025年06月13日 首頁 » 熱門科技

作者|周雅

在AI圈子裡,大家或許聽到過這樣的話術,「AI創新既是一場馬拉松,也是一場短跑」,此時此刻我在AMD Advancing AI這場關乎未來AI計算格局的會上,腦中多次浮現出這句話。

太平洋時間2025年6月12日早晨,聖何塞的麥克內里會議中心就開始排長龍,據說今年註冊的觀眾嚴重超標。身前身後的全球媒體同行,幾乎都在議論近期某個模型或某個AI公司的進展,AI的熱度像是6月份的天氣。我於是又刷了一下AMD的最新財報,在2025年第一季度,AMD的數據中心業務營收37億美元,同比增長57%。對應到全球AI版圖,AMD的話語權逐漸變重。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

鏡頭拉回到隨後的會議現場,AMD董事會主席及首席執行官Lisa Su博士走上舞台,也就意味著這場技術大會的正式開始了。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

概述這場發布,AMD主要做了五件事:展示AI加速器「Instinct MI350系列」的遙遙領先;用開源軟體平台「ROCm 7」普惠AI開發者;發布支持以太網聯盟(UEC)的網卡Polara 400;以及帶來一個彩蛋作為壓軸——AI機架「Helios」。

聽完整場,不難看出AMD的戰略方向,從「賣晶片」轉向「不止賣晶片,還賣系統」,左手端到端解決方案,右手開放生態,來重塑AI基礎設施的競爭格局。

Helios:我們不止賣晶片,還賣端到端解決方案

儘管NVIDIA在GPU的強勢有目共睹,但AMD也並不想做一個長期追趕者。

我們知道,NVIDIA 一直是靠著硬體GPU 軟體生態CUDA 網路技術NVLink,建了一個嚴絲合縫的AI生態。而AMD 另闢蹊徑,用組合拳CPU GPU DPU 開源軟體棧,武裝成一個端到端的AI 基礎設施。

於是,AMD正式宣布AI機架方案「Helios」,將於2026年正式問世。

「Helios」 是一個集大成者,AMD會把全家桶都打包裝進去,包括下一代 AMD GPU Instinct MI400 系列 、採用 Zen 6 架構的AMD CPU EPYC 「Venice」、AMD DPU Pensando 「Vulcano」、以及AMD開源軟體棧ROCm。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

此處稍作解釋AI機架方案。在過去,像谷歌、Meta 這樣的大公司要自己成為「攢機員」,他們從 AMD 或其他晶片廠商那裡買來GPU/CPU 等核心部件,然後自己設計伺服器、機櫃、散熱系統和網路連接,再進行漫長的軟體調試,才能讓成千上萬個 GPU 協同工作,可想而知,這個過程耗時耗力耗錢。

你可以把「Helios」 理解成一台為你組裝好、調試好、開箱即用的「超級計算引擎」,它的外觀形態是一個機架,裡面有最強大的GPU,還預裝了最匹配的 CPU、最高效的網卡、專門設計的散熱和供電系統,且所有軟體都經過深度優化,而不是讓你自己去買一堆零件(CPU、顯卡、主板、網卡等)回來自己攢機,說白了,就是為了解決超大規模客戶在構建 AI 集群時面臨的最大痛點——降低總擁有成本(Total Cost of Ownership,TCO)和縮短產品上市時間(Time-to-Market,TTM)。

「Helios是業界首次將機架作為統一系統設計,它將在大規模訓練和分布式推理領域占據領先地位,這將徹底改變行業格局。」Lisa Su博士說道,「Helios的優勢不止於強大算力,在內存容量、內存帶寬和互聯速度方面都遙遙領先。」

AMD直面競爭也頗有底氣。官方稱,Helios可容納72塊MI400系列,總帶寬260TB/s,FP4 2.9 EFlops、FP8 1.4 EFlops。此外,Helios的HBM4內存容量31 TB、總帶寬1.4 PB/s、橫向擴展帶寬43 TB/s,對標NVIDIA Oberon都要高出一半。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

而驅動 Helios 的核心,正是 Instinct MI400,這款加速器正在開發中,其規格堪稱恐怖,當螢幕上出現它的性能參數時,現場掌聲雷動:

FP4 算力達到 40 PF,FP8 算力達到 20 PF,單 GPU 顯存高達 432GB,HBM 內存帶寬達到19.6 TB/s,單 GPU 對外互聯帶寬達到300 GB/s,可實現跨機架和集群的互聯。簡單來說,它能夠讓不同機櫃和計算群組之間進行超高速數據交換,就像給所有計算單元之間鋪設了資訊高速公路,使得數據能夠快速、大量地在不同設備間流通,避免堵塞或延遲。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

看下圖這條陡峭的曲線。從 MI300 到 MI350,性能提升了約 3-4 倍;而從 MI350 到 MI400,AMD希望讓它跑出一騎絕塵的姿態。Lisa Su博士在展示性能曲線時說道:「MI400系列在處理最前沿的模型時,性能預計可提升至目前的10倍,這使它成為業界性能最強勁的AI加速器。」

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

從路線圖上看,Helios將於2026年發布,而 AMD 依然放出了「三年規劃」:2026年,Helios將基於AMD EPYC 「Venice」、AMD Instinct 「MI400系列」、AMD Pensando 「Vulcano」;2027年,「下一代AI機架」將基於EPYC 「Verano」、Instinct 「MI500系列」、Pensando 「Vulcano」。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

誠然,這是 AMD 戰略上的一次重大升級,意味著這家公司正從一個純粹的晶片供應商,向系統級解決方案提供商轉型。

說到這裡,AMD特意請來OpenAI助陣,兩家公司都強調了AI計算能力有多重要。OpenAI聯合創始人兼首席執行官Sam Altman坦言:「當我們開始使用推理模型,這些模型需要很長的運算時間。這種模型會自主運行,對問題進行分析,然後給出更優解,有時甚至能直接寫出一整套完整的代碼。但這就要求模型必須運行得更快,還得能處理很長的文字。為了做到這些,我們需要超級多的計算資源、存儲空間和CPU。」

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

也就是說,推理模型和AI代理正在驅動下一波應用浪潮,這對算力的需求是無止境的。

Instinct MI350:絕非單一指標,性能、內存、成本全要照顧到

除了讓人眼前一亮的Helios,Lisa Su還揭開了本場第一位硬體主角——AMD Instinct MI350 系列!

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD董事會主席及首席執行官Lisa Su博士手持MI350系列

具體來看,MI350系列採用CDNA 4 GPU架構,3納米,它的特點是:1、更快的AI訓練和推理:AI算力較上代提升4倍,在FP4精度下可達20PF,同時在FP6精度下可提升訓練和推理的速度;2、支持更大的大模型:由於每個模塊都配備了288GB HBM3E高性能內存,所以單個GPU就能運行5200億參數的模型,可想而知,這就有利於降低大模型推理的成本;3、支持快速部署AI基礎設施:該系列基於行業標準的UBB8平台,支持「風冷」和「液冷」兩種散熱方案。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

當然,為了適應多樣化的數據中心環境,MI350 系列推出了兩款型號:MI355X 和 MI350X。兩者共享一樣的計算架構和內存規格,但在功耗和散熱方案上卻不一樣:MI355X 追求極致性能,功耗較高,主要面向最高效的液冷散熱環境;而 MI350X 則更注重能效,功耗較低,支持風冷和液冷兩種散熱方式,這種靈活性讓它能夠「在現有基礎設施上快速部署和應用」。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

提到數據中心的散熱方式,此處有必要插入AMD副總裁兼數據中心加速業務總經理 Andrew Dieckmann的觀點。他在前一天的媒體溝通會上指出:「2025年是液冷技術的重要里程碑」——目前所有在建的數據中心、以及前期規劃中的數據中心項目,基本都將採用液冷方案,這是因為它能帶來更低的TCO,長遠來看更具經濟效益,這是AMD前進的方向;同時,風冷市場需求依然強勁,尤其是在企業內部部署場景中,AMD也會推出相應的產品線。

繼續說回 MI350 系列的性能,俗話講「是騾子是馬拉出來溜溜」,「性能」一直都是衡量 AI 加速器的標尺,AMD此次也擺出了MI350 系列與其他產品的直接對標,不僅對標自家產品,還對標友商NVIDIA的產品。

首先,在推理性能方面。MI355X 對比上一代 MI300X,在運行 Llama 3.1 405B(4050億參數)這樣的大模型時,推理吞吐量最高提升可達 4.2 倍,在AI Agent、內容生成、文本摘要、聊天對話等多種場景中,整體性能也提升了3-4倍。而且,這一優勢並不僅限於特定模型,在 DeepSeek R1AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態、Llama 3.3 70B、Llama 4 Maverick等多個典型模型上,吞吐量均實現了超過 3 倍的性能提升。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

當運行 DeepSeek R1和 Llama 3.1 405B 模型時,在使用 SGLang、vLLM 等流行的開源推理框架時,MI355X的性能比使用專有框架(TensorRT-LLM)的NVIDIA B200 更勝一籌。如下圖,MI355 相比 B200 分別在SGLang、vLLM上每秒處理的 token 數量高出1.2倍、1.3 倍,在vLLM上每秒處理的 token 與 NVIDIA GB200持平。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

更重要的是,這種性能優勢直接轉化為成本優勢:「每美元能處理40%的token」,這意味著客戶不僅能獲得更快的推理速度,還能大幅降低服務成本,這對於以 token 計費的 AI 應用來說是致命的誘惑。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

其次,在更關鍵的模型訓練方面。MI355X 對比 MI300X,在Llama 3 70B預訓練的吞吐量提升 3.5 倍,在Llama 2 70B模型微調方面的性能提升 2.9 倍,這就有利於縮短從開發到部署的周期。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

在Llama 3 70B/8B的預訓練任務中,MI355X 對比 NVIDIA B200,兩者性能旗鼓相當;而在最新的MLPerf V5.0基準測試中,MI355X 在Llama 2 70B模型微調方面的性能,對比B200和GB200分別快1.1倍、1.13倍。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

基於MI350系列,各家OEM廠商推出了採用AMD技術的AI機架方案,整合了EPYC CPU、Instinct GPU和Pensando DPU,全部整合為一體化解決方案。在大規模部署環境中,單個液冷機架最多可容納96個GPU,甚至可擴展至128個GPU,配備2.6 ExaFLOPS FP4算力和36TB HBM3e高速內存。而在風冷散熱系統的部署方案中,MI350系列機架單櫃可支持64個GPU,兼容傳統數據中心的部署環境。

「這樣的靈活性和多樣化選擇是客戶真正需要的,他們希望用最少的工作量和最小的干擾,實現數據中心快速部署,這正是MI350能夠實現的功能。」Lisa Su博士強調。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

據悉,MI350系列已於本月初開始量產出貨,首批合作夥伴也將按期發布伺服器產品,並在第三季度推出公有雲服務。AMD指出,下圖的名單是MI350系列的合作夥伴,但這不是全部,還會陸續更新。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

ROCm 7:只有硬體是不夠的,軟體生態是開發者構建AI的畫筆

如果說硬體是 AI 計算的「肌肉」,那麼軟體生態就是它的「神經系統」。「硬體性能固然出色,但真正釋放其全部潛力的關鍵在於軟體。」Lisa Su博士將話題轉向了AMD的軟體生態——ROCm。

說到軟體生態,AMD有ROCm,NVIDIA有CUDA,但是大家往往不會把兩者相提並論,為什麼?

對於這個犀利問題,AMD人工智慧事業部企業副總裁 Ramine Roane是這樣回答的:

「我們開發了HIP語言,它和CUDA有90%相似,可以說是一個親兄弟。我們甚至提供了叫HIPify的轉換工具,只需幾行代碼就能把CUDA程序轉成HIP格式。

但其實現在更重要的趨勢是,開發者已經不需要直接接觸底層編程了。你可以直接用PyTorch、Jax或者從Hugging Face下載模型,這些在我們平台上的使用體驗,跟在英偉達平台上完全一樣。

對於那些確實需要寫底層代碼的高級開發者,除了用HIP之外,現在業界有個更好的趨勢——使用Triton這樣的通用編譯器。這是OpenAI開發的工具,微軟、Meta都在用,它接收Python風格的代碼,然後自動為不同硬體平台生成最優代碼。簡單到什麼程度?我們比賽中有個16歲的高中生,僅靠編寫簡單的Python代碼就進入了前20名。

行業正在從硬體專用語言轉向通用語言,因為只要性能達標,大家都更願意用一種代碼運行在任何硬體上,而不是被特定平台綁定。」

弦外之音就是在說,CUDA的護城河其實沒有想像中那麼深不可破,每當有新的GPU架構出現時,無論是NVIDIA自己的還是競爭對手的,所有人都必須重新優化底層代碼,相當於回到同一起跑線。而開源生態的優勢在於集眾人之力,速度更快,創新更活躍,AMD正是藉助這一點來撼動NVIDIA的市場主導地位。

好,讓我們回到現場。

AMD人工智慧事業部高級副總裁Vamsi Boppana用一句話概括ROCm的願景——打造開放共享的、可擴展的軟體平台,讓AI創新惠及全球每一個人。

目前,已有超180萬個Hugging Face模型可在ROCm上開箱即用。過去一年來,AMD加強了對JAX的支持,藉助MaxText等程序庫,JAX在訓練項目中的應用日益廣泛。更重要的是,AMD將軟體更新頻率從季度縮短至每兩周一次,確保能夠為最新的模型和框架提供「Day 0」支持。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

但是AI 一直在工作,所以AMD也不能懈怠,於是正式發布——ROCm 7,重點優化了推理性能,目標是提升易用性和性能。其預覽版將於 6 月 12 日向公眾開放,正式版將於 8 月發布。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

「我們全面更新了AI推理的技術架構。從VLLM和SGLang這些基礎框架的升級,到提升服務性能、支持更高級的數據類型,再到開發高性能的核心程序,以及實現Flash Attention v3這樣的前沿算法。我們讓開發過程變得更簡單,用類似Python的方式來整合各種核心功能。我們還大幅改進了系統內部的通信方式,這讓ROCm 7的推理性能比上一代ROCm 6提升了3.5倍、訓練性能提升了3倍。」Vamsi Boppana指出。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

說到這裡還不忘強調開源的好處,順便硬剛一下友商。Vamsi Boppana說,「在AI推理服務的領域,我們越來越發現,開源的解決方案在功能更新速度和性能表現上都已超過不公開源代碼的方案。比如VLLM和SGLang這樣的開源框架,它們的代碼更新速度非常快,已經領先實現了FP8這種優化功能,比那些閉源產品早很多。我們與這些開源社區密切合作,在DeepSeekAMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態 FP8的測試中,MI355X系列比NVIDIA B200最多提高了1.3倍。這就是開放合作的力量,讓我們能夠快速行動,創造更多可能性。」

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

為了讓開發者能夠真正接觸並使用 AMD 的技術,AMD 推出了一系列重磅舉措:

首先,上線 AMD 開發者雲平台(AMD Developer Cloud)。開發者只需一個GitHub或郵箱賬戶,即可輕鬆訪問雲端的Instinct GPU資源。Vamsi Boppana在現場宣布,「所有參加本次峰會的開發者,都將獲得 25 小時的GPU免費使用券。」

其次,全面支持 ROCm on Client。這曾是 AMD 的一個「痛點」,現在,ROCm將不再局限於雲端和數據中心,而是將全面支持銳龍筆記本和工作站平台,並且首次正式支持 Windows 系統,這意味著開發者可以在自己的本地設備上,使用統一的軟體環境進行AI開發和調試。同時,AMD 還將與紅帽、Ubuntu、OpenSUSE 等主流 Linux 發行商合作,提供「inbox」支持,即 ROCm 將被預裝在系統發行版中,免去用戶繁瑣的安裝過程。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

這意味著,開發者可以在自己的筆記本上運行 240 億參數的模型,在 Threadripper 工作站上甚至可以運行 1280 億參數的模型,這為本地化 AI 應用的開發和調試提供了前所未有的便利。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

而且,AMD不只是希望ROCm惠及開發者,也希望ROCm惠及企業的開發者,於是正式推出——ROCm企業版。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

ROCm企業版是一套完整的技術方案,涵蓋了從集群管理到MLOps的各個環節,支持預訓練、推理部署、以及端到端應用程序的開發。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

網路成為新戰場,除了看適用度,還要談開放性

接下來,AMD數據中心解決方案事業部執行副總裁兼總經理Forrest Norrod登場,重點講了AMD在網路技術方面的戰略布局,同樣強調了「開放」。

AMD方面指出,AI 模型規模每三年增長千倍,訓練數據量每八個月翻一番,這種需求的增長速度已經遠超硬體技術本身的發展,唯一的出路是通過創新的分布式系統架構,將成千上萬的 GPU 連接成一個協同工作的整體——在這背後,網路正是實現這一切的基石。

當前,AI 網路市場主要有兩種技術路線:專有的 InfiniBand 和開放的以太網。從AMD的角度,認為InfiniBand 缺乏擴展性;而以太網雖然具備擴展性,卻並非為 AI 網路而設計。

為了解決這一難題,AMD 提出了一個全面的、基於開放標準的網路創新戰略,涵蓋了從後端到前端、從橫向擴展到縱向擴展的各個層面,那就是 Ultra Ethernet Consortium (UEC)。這是一個由 AMD、Arista、Broadcom、思科、Meta 等百餘家行業巨頭共同推動的開放標準,就是為了打造專為 AI 優化的下一代以太網。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

同時,AMD 推出 Polara 400 AI 網卡,是業界首款支持 UEC 技術的解決方案。它不僅支持傳統的 RoCEv2 RDMA 協議,還能通過軟體升級,啟用 UEC RDMA 功能。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

此外,AMD 為 Helios 機架系統設計下一代互聯晶片 Ultra Accelerator Link,這是一種新型存取架構,專為大規模AI系統設計,具有低延遲、高帶寬等特性。它採用以太網物理接口層,可集成各類標準部件,降低成本並確保互連穩定性。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

組合拳背後有底層邏輯:AMD的三大戰略支柱

AMD此次打出了一套邏輯嚴密、環環相扣的組合拳,而回頭再看Lisa Su博士在開場時講的資訊,就更好理解了。

Lisa Su博士的開場白直擊當前AI的發展脈搏——「AI技術的創新速度之快,在我的職業生涯中都是絕無僅有的,2025年AI發展速度更是一路飆升,進入一個全新篇章,其標誌就是「代理式AI(Agentic AI)」的崛起。」

在Lisa Su博士看來,代理式AI就像是一種全新的「數字員工」,與以前只會做單一任務的AI不同,這些代理式AI能夠24小時不間斷工作、不斷學習和分析海量數據,並且可以直接與公司各種系統互動,自己做決定和完成工作。她隨後說道:「我們正在引入數十億個代理式AI,它們可以幫助我們工作。」

這種範式轉移,對計算設備提出了三大新要求:

第一,要超強的GPU計算能力。這些AI要實時分析數據、進行深度思考,就像人腦需要更多內存空間存儲和處理資訊一樣。

第二,要強大的CPU處理器。因為這些AI助手在工作時不僅要思考,還要同時處理各種日常任務,比如查詢資料庫、與其他系統溝通等,這些都需要傳統計算力支持。

第三,要安全高效的網路連接。所有這些計算部件必須通過快速、安全、穩定的網路連接在一起,才能形成完整的工作系統。

面對如此巨大的變革,市場機遇也隨之而來。Lisa Su博士重申了AMD在去年做出的預測:

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

第一,到2028年,數據中心AI加速器的市場規模將增長至5000億美元,年增長率超過60%;

第二,AI推理能力將成為AI的核心動力。「AMD預計AI推理市場的年增長率將超過80%,未來將成為AI計算領域最大的增長引擎。而高性能GPU,憑藉其出色的靈活性和強大的編程能力,將在這個市場占主導地位。」

面對廣闊的市場和複雜的需求,Lisa Su博士指出,AMD有三大核心戰略,這構成了其在AI時代競爭的基石:

第一,提供最多元化的計算引擎產品線。AMD認識到AI並非「一種方案通吃」,不同的應用場景需要不同的計算方案。因此,AMD提供了業內最完整的端到端計算解決方案,涵蓋CPU、GPU、DPU、網卡、FPGA和自適應晶片等各類處理器,確保「無論在任何場景部署AI,無論你需要多大的算力,AMD都能滿足你的需求。」

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

第二,構建以開發者為中心的開放生態系統。Lisa Su博士在演講中反覆強調「開放」的重要性。「回顧歷史可以發現,許多重大技術突破最初都是採用封閉模式的,但行業發展歷程反覆證明,開放才是創新騰飛的關鍵。」她以Linux超越Unix、Android的成功為例,論證了開放生態如何促進良性競爭、加速創新並最終讓用戶獲益。因此,AMD全面支持各大主流框架,將ROCm軟體生態開源,並積極主導和參與UEC、UAL等開放行業標準,都是在「凝聚行業力量,讓每個人都能參與AI創新」。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

第三,提供端到端解決方案。隨著AI系統日趨複雜,客戶要的不再只是單顆晶片,而是經過整合優化的全棧解決方案。為此,AMD近年來通過自身發展和戰略併購(如收購ZT、Nod.ai、Silo.ai、Lamini等公司),不斷增強其在機架級設計、軟體和編譯器等領域的技術實力,從而為客戶提供「開箱即用」的AI平台。「過去一年間,AMD已完成超25項戰略投資,有效拓展了合作夥伴網路,並為未來AI軟硬體領域的創新企業提供支持。」Lisa Su博士指出。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

清晰的戰略打底,AMD 勢如破竹:「全球十大 AI 公司中,已有七家正在大規模部署 AMD Instinct GPU。」 這份客戶名單包括了微軟、Meta、X.AI、Cohere、Reliance Jio 等科技巨頭,以及眾多充滿活力的 AI 初創公司,似乎 AMD 的 AI 加速器已經成功滲透到全球最頂級的 AI 研發和生產環境中。

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

在傳統的超級計算(HPC)領域,AMD 依然強勢。在最新發布的全球超算 TOP500 榜單中,排名第一的「Frontier」和第二的「Aurora」超級電腦,其核心計算引擎均由 AMD 提供。同時,Instinct 平台獲得了所有主流伺服器 OEM 和 ODM 廠商的支持,並在 Azure、Oracle 等公有雲以及很多新興雲服務商中上線,生態系統日益成熟。

如果用一個詞概述這場發布,那一定是「開放」,從Lisa Su 博士到現場站台的每一位合作夥伴,都在反覆強調開放標準和開源社區的重要性。這不僅是一種技術理念,更是一種高明的商業策略。面對NVIDIA憑藉CUDA構建的堅固護城河,AMD選擇的不是正面攻城,而是聯合所有「城外力量」,另闢蹊徑,建立一個新的、更開放的生態聯盟。

峰會的最後,Lisa Su返場做總結,她說,「人工智慧的未來不該局限於單一企業或封閉生態,這需要整個行業攜手合作,共同開創。未來將由我們共同打造,每個人都貢獻智慧,集思廣益,通過協同創新,開創美好明天。」因為,「AI Everywhere,for Everyone(AI無處不在,惠及每個人)」

AMD全棧戰略浮出水面:開源很好,所以我們要造GPU、ROCm和AI機架全生態

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新