幾天前,一位在行業深耕多年的朋友問我:現在滿市場都是AIPC,究竟什麼樣的機器,才配得上「生產力」引擎,而不只是把「本地端側智能」當賣點?
這個問題的關鍵,並不僅在於某一代晶片性能是否足夠強,更在於算力的組織方式是否發生了變化。過去二十年,計算資源不斷向雲端集中,個人設備逐漸退化為算力入口。但在大模型時代,這種結構開始顯現出系統性張力——模型規模、數據私有性與推理頻率,正在加速算力重新下沉。
AIPC的出現,解決了部分本地推理問題,卻仍受限於顯存規模、內存割裂和模型生命周期不可持續,難以形成完整的計算閉環。本質上,算力依然是被預設、被封裝的。
真正的分水嶺,或許不是「PC 能不能跑 AI」,而是——個人是否能夠擁有可持續演進的AI計算系統,能在本地完成推理、微調與優化,並長期沉澱數據與模型資產。
從這個意義上看,是否「每個人都應該擁有一台 AI 超算」?
最近,我們正好拿到了一台不久前發布的NVIDIA DGX Spark——一台被壓縮到桌面尺度的AI超算。

打開木質感的外包裝,NVIDIA DGX Spark全金屬的一體化機身便顯露出來,表面經過細膩的香檳金陽極氧化處理,觸感緊實,視覺質感高級且內斂。
機身「三圍」是150mm x 150mm x 50.5mm,投影面積甚至比iPad mini還要小,但就是在這樣緊湊的體積下,整機重量實打實地達到了1.2kg。上手的第一反應是非常「壓手」,而這種「墜手感」直觀地反饋了其內部極高的堆疊密度。

機身「前臉」覆蓋著大面積的不規則的蜂窩狀金屬格柵結構,這一極具辨識度的工業設計,體現出獨特工業美學張力。


從背後看,NVIDIA DGX Spark的接口非常豐富。

在供電與接口設計上,NVIDIA DGX Spark明顯不是按「普通桌面級設備」的思路來設計的,機身背部的獨立DC供電口,標配240W電源適配器,為整機在滿負載狀態下釋放性能預留了足夠餘量。
外設接口同樣充足,NVIDIA DGX Spark提供4個 USB Type-C接口用於連接各類外設,1個HDMI 2.1a可支持最高8K顯示輸出。
真正讓這台設備具備「AI超算」氣質的,是網路與高速互連能力。RJ-45萬兆(10G)以太網口,可用於大模型權重與數據的高速傳輸。
同時NVIDIA DGX Spark還內置了NVIDIA ConnectX-7智能網卡,單卡帶寬高達200Gbps。通過高速直連線纜,兩台DGX Spark可以直接互聯,構建成小型雙節點系統,實現算力與顯存資源的近線性擴展,而這曾經一度是伺服器級集群互聯的「玩法」。
從性能上看,NVIDIA DGX Spark也擁有超強的「爆發力」,其搭載的NVIDIA Blackwell架構的GB10超級晶片。

GB10的CPU部分,搭載了專為數據預處理和AI任務優化的20核心ARM處理器。這顆CPU的核心調度策略採用「10+10組合」——10個Cortex-X925超大核,負責高負載的通用計算任務;10 個 Cortex-A725高能效核,負責處理後台進程和I/O 調度。
與之協同的,是基於 Blackwell架構的GPU核心。其集成了6144個Blackwell Generation CUDA 核心,搭載了第五代Tensor Core和第四代RT Core。
最令人驚艷的在於其張量性能(Tensor Performance):在 FP4精度下,這1.2kg的「小盒子」能爆發出的峰值算力高達1 PFLOP(此為基於 FP4精度並結合稀疏性加速的理論值)。這意味著其單機的理論性能,已經能夠支撐起200B(兩千億)參數級別的AI推理任務,或70B(七百億)級別的模型微調訓練。
為了匹配這樣的計算與互聯能力,NVIDIA DGX Spark在存儲I/O配置上標配4TB NVMe M.2 SSD,並支持自加密(Self-Encrypting),用於保護模型權重與數據資產的安全;網路側除萬兆以太網外,還支持Wi-Fi 7,覆蓋從本地集群到無線辦公的多種使用場景。
在如此激進的性能釋放下,GB10晶片的TDP被控制在140W,整機滿載功耗約240W。結合僅其緊湊的體積,NVIDIA DGX Spark給出了清晰的答案——桌面級AI計算不再只是靠堆功耗換算力,而是通過系統架構、內存模型和高速互連,把單位能耗下的有效算力密度推到新的高度。
對於LLM開發者而言,NVIDIA DGX Spark最具」爆發力」的能力,在於其配備128GB LPDDR5x統一系統內存。這套內存採用256-bit位寬,總帶寬達到273 GB/s,由CPU與GPU 共享同一物理內存池。
與傳統「CPU 內存+獨立顯存」的割裂架構不同,統一的內存從根本上繞開了24GB、48GB顯存所形成的硬性上限。系統可以根據實際負載動態分配內存資源,模型參數、KV Cache,以及中間張量無需在 CPU內存與GPU顯存之間反覆搬運,不僅降低了內存拷貝帶來的時延,也顯著簡化了大模型部署與調優的複雜度。
對開發者來說,這意味著可以在單機環境中承載更大的模型規模,並獲得更穩定、可預測的推理性能。
回到最初的問題:什麼樣的機器,才配得上「生產力引擎」?
前文所拆解的,並不僅是DGX Spark的性能參數,更是整套計算範式的變化。從統一內存打破顯存牆,到CPU與GPU在同一物理內存池內協同調度;從單機即可承載數百億參數模型,到通過高速互連實現近線性的算力擴展。這些設計共同指向一個事實——AI計算正在從「被調用的資源」,轉變為「可長期擁有、持續演進的系統」。
當模型可以在本地完成推理、微調與疊代,當數據與權重不再只是臨時加載的消耗品,而是可以長期沉澱、不斷增值的資產,計算設備本身的角色也隨之發生改變——它不再是終端,而是個人級算力基礎設施。
從這個意義上看,「每個人都應該擁有一台AI超算」或許是大模型時代對生產力工具提出的現實要求。






