這是理想汽車
一顆零件的 PPAP 審核
時間在過去這段時間裡發生的變化。
PPAP 是生產件批准程序的簡稱。供應商在量產前要提交一整套材料,向主機廠證明自己已經具備穩定、持續交付合格零部件的能力。一顆零件後面,往往有幾十份資料;一輛車背後,是成千上萬顆零件和密集聯動的文件體系。這是汽車供應鏈里最不容易被繞過、也最不容易被加速的環節之一。
5 小時是熟練 SQE 工程師審一份資料的速度,這已經是相當高效的水平了。而當同樣的工作被壓縮到 2 分鐘時,意味著原來必須由人來做的判斷,現在大部分可以交給機器。
完成這件事的,是一套叫做 PPAP Audit Agent 的 AI 智能體
。目前,它已經在 290 個供應商項目里投入運行了。

其背後的算力載體是聯想 ThinkStation PGX,一台桌面級、可以放進任何一家供應商車間的本地 AI 超算
。

供應鏈質量審核不直接面向消費者,但它決定了一輛車能不能按時下線、按質交付。截至 2026 年 3 月底,理想汽車歷史累計交付突破 163 萬輛。當規模膨脹到這個量級,傳統的人工 PPAP 審核體系在物理上已經遠遠跟不上節奏了。
撐起一個零件的審核閉環
PPAP 審核時間的壓縮,表面看是效率提升,其實是把高度依賴人工經驗的工作,轉化為可以被 AI 系統化執行的流程。
這恰好是 AI 智能體擅長的那類活。
它面對的是海量、多格式、強關聯的資料,審核過程又依賴清晰的工程規則和固定的檢查路徑。智能體可以在多份文件之間建立關聯,按既定規則連續推進審核流程,並把結果直接反饋到具體問題點上。
PPAP 之於汽車供應鏈,正如 KYC 之於金融業的信貸開戶,看似常規,實則決定下游一切動作能不能啟動。這種「閘門」任務一旦由人變成機器,整條鏈路的等待時間會跟著縮短。
當然,能不能把資料審明白,只是邁出了第一步。真正到了車間裡,事情馬上就複雜起來。系統能不能穩定跑起來、接入真實流程,能不能在本地處理那些上不了雲的敏感數據,這些才決定它到底能不能用起來。
對理想來說,PPAP 智能體要真正部署到每一家供應商的車間裡去,靠的是一整套貼近現場的交付能力。

而選擇聯想工作站,正是依託其覆蓋全國的售後網路與市場領先地位。據 IDC FY25 Q4 數據,聯想 ThinkStation 以 47.3% 銷量占比、53.8% 營收占比穩居中國塔式工作站市場第一。其 2400+ 服務中心、100% 覆蓋全國,可快速響應各地工廠,保障 PPAP 智能體穩定運行。
而分散的供應商、網路與數據高安全要求下,唯有把 AI 能力下沉到本地,才能在不打亂原有節奏的前提下,把 PPAP 嵌入場景。這意味著,承載這套智能體的設備必須滿足幾項條件:能夠在本地穩定推理,支持 7×24 小時連續運行,部署門檻足夠低,且不能給工廠額外增加過多改造成本。
聯想 ThinkStation PGX 所撐起的,正是這部分關鍵的落地能力。
聯想 ThinkStation PGX 是一款專為完整構建和運行 AI 而設計的新型超級電腦。它搭載基於 NVIDIA Grace Blackwell
架構的 NVIDIA GB10 Grace Blackwell 超級晶片,在 FP4 精度下可提供高達 1 petaFLOP 的 AI 性能。藉助 128GB 統一內存,開發人員可以對來自 DeepSeek、Meta、Google 等的下一代推理模型進行試驗、微調或推理,支持的模型規模最高可達 200B 參數。換句話說,一台桌面級設備能裝下原本只在數據中心裡跑得動的模型。

在此基礎上,聯想 ThinkStation PGX 進一步把大模型能力延伸到本地開發與實時應用場景。它能夠在本地實時運行理想自研的 27B 大模型,同時支持多個智能體並行推理。藉助 NVIDIA ConnectX 網路,兩台聯想 ThinkStation PGX 還可以互聯擴展內存和算力,從而支持對多達 405B 參數模型的推理。
它的整機體積非常小,投影面積比 iPad mini 還小,整機重量只有 1.2kg。不需要額外機房,也不依賴複雜的基礎設施改造,進入供應商現場後即可直接部署。
對理想來說,這意味著 PPAP Audit Agent 不必等供應商先經歷一輪漫長的數字化改造,就能直接進入真實業務場景。對供應商來說,第一次接入 AI 工具,整體門檻也更低。
設備放得下、運行穩,才有機會真正進入產線和質量體系,成為日常業務的一部分。

根據麥肯錫 2024 年發布的研究估算,中國工業自動化市場規模已超過 2500 億元,占全球三分之一以上。IDC 此前發布的數據則顯示,全球工業 AI 質檢市場 2025 年接近 10 億美元,複合增長率 28.5%。
市場起步不久,真正能在工廠里能跑起來落地應用的 AI 還很有限,但聯想 ThinkStation PGX 或許已經幫助理想抓住了關鍵。撐起一台設備的擴展空間
今天這台聯想 ThinkStation PGX 跑的是 PPAP 審核智能體,解決的是量產前最費人、最費時間的文件審核。

往後呢?質量策劃、過程審核這些能力,也可以繼續往同一套邊緣底座上疊加。對理想來說,這讓 AI 更容易沿著供應鏈一路鋪開。對供應商來說,更現實的價值在於,前期投入不會因為場景繼續擴展就很快過時。同一台設備,可以先跑通一個場景,再在此基礎上不斷疊加新能力。它在工廠里擔的角色,也就不再只是解決單一問題的工具,而是一塊持續生長的 AI 地基。
一台設備能同時「養活」多個智能體,本來就是 NVIDIA Grace Blackwell 架構的設計目標之一,也是聯想 PGX 跟通用工作站不一樣的地方。
Blackwell 架構為本地智能體提供的價值,首先體現在 AI 推理鏈路的底層加速上。其第五代 Tensor Core 與新一代 Transformer 模型
對矩陣運算、注意力計算和低精度推理進行了專門優化,能夠更好地支撐多輪對話、長上下文處理、代碼生成與多模態生成等高密度 AI 負載。
具體到 PPAP 的場景中,在審核一份零件文檔時,智能體要並行處理工程圖紙的視覺理解、技術參數的結構化提取、與歷史版本的差異比對,這些任務背後是大量低精度矩陣運算的密集調度。Blackwell 架構的 Tensor Core 原生支持 FP4 數據格式的計算指令與執行路徑,使該精度推理在硬體層面可獲得更高的執行吞吐,從而帶來顯著的推理加速效果。

對企業的私有化部署來說,這意味著本地能跑的模型上限被直接拉高,原本更依賴高端伺服器環境的模型,能夠在 Blackwell 架構的設備上獲得落地空間。
硬體能力要轉化為企業真正可用的解決方案,還得益於 CUDA 軟體生態所帶來的工程化能力。藉助 CUDA、cuDNN、TensorRT-LLM 等成熟工具鏈,Blackwell 的 Tensor Core、Transformer 模型,以及低精度推理能力,能夠更高效地轉化為可部署、可調優、可持續疊代的本地推理能力。
另外,NVIDIA 還為這套底座補齊了配套的軟體棧。NemoClaw 能將複雜環境的搭建簡化為單條命令即可完成 OpenClaw 所需組件的安裝;接入 NVIDIA OpenShell 運行時後,還能為智能體提供隔離的執行環境,以及基於策略的網路與數據訪問控制。
這套以 Blackwell 架構為底座、疊加推理加速與安全能力的體系,正好對上了企業當前最現實的幾項需求:本地推理壓縮了雲端數據交換帶來的時延,敏感數據可以留在本地或內網沙盒中處理,長期運行的智能體對外部 Token 計費模式的依賴明顯下降,標準化的部署鏈路也讓 IT 團隊更容易將智能體納入既有的權限、安全與運維體系。
回到理想這條主線,今天承載 PPAP 的這台聯想 ThinkStation PGX,明天可以承載過程審核智能體,後天可以承載質量策劃智能體,同一套硬體、同一套軟體棧、同一套安全策略。供應商在工廠里部署的,不是一個一次性的工具,而是一塊持續生長的 AI 地基。
撐起一條產業鏈的算力下沉
當一台設備可以持續疊加能力,一個更大的變化就開始在產業側發生——這塊「AI 地基」的價值,會加速向整條供應鏈擴散。
其實,從行業看,在汽車製造業中,人員作業帶來的質量問題長期存在,一直缺乏有效的技術手段來解決。難點在於無法在複雜、多變的現場環境中,形成穩定運轉的質量閉環。
而理想的做法,是把 AI 能力延伸到供應商一側。理想通過專門建立實驗室,為供應商開發可以直接部署到車間裡的 AI 產品。
在落地標準上,理想汽車供應鏈 PTC 工業化總監雷江波將其總結為四個關鍵詞:好用、易用、便宜、柔性。在 AI 時代,理想汽車也將供應鏈的決策時效從「天」壓縮到了「分鐘級」。在方法論層面,雷江波用 PDCA 框架
總結其願景:質量策劃(P)→現場執行(D)→數據回傳檢查(C)→審核分析與持續改進(A)。

理想方面透露,已經有同行車企看到供應商在使用這套產品的實際效果後,開始要求供應商在其自身體系中同步部署。相關技術正在從理想的供應鏈向更廣的範圍擴散。
理想汽車的實踐表明,企業級智能體要真正落地,模型能力決定起點,算力平台的安全性、穩定性和擴展能力,則決定了 AI 業務能走多遠。
而聯想 ThinkStation PGX 的價值,正在於為這些關鍵能力提供穩定、可持續的支撐。這也是理想汽車在推進相關 AI 應用時,將聯想作為支撐模型運行與場景落地的重要合作夥伴的原因。
在實際應用中,理想汽車與聯想也展開深度合作。圍繞理想自研模型,聯想提供了定製化微調支持,並承擔了從硬體配置、部署實施到後期運維的整體交付。面對覆蓋廣泛的供應商網路,聯想成熟的服務體系也為後續運行提供了保障。
如今,本地 AI 超算和雲端的分工正在明朗起來:重訓練、跨域協同的任務繼續留在雲上,對延時和數據駐留敏感、又必須貼近現場的任務,開始往車間和工位下沉。
這種下沉的速度推到哪裡,本地能用的算力就要鋪到哪裡。
而理想從 5 小時變 2 分鐘的效率提升,就是這種算力下沉,剛剛發生在工程師工位上的時刻。






