GPU(繪圖處理器)是AI時代下最被看好的應用,然而並非所有的場景都需要用到GPU。在價格、成本和性能的考量下,各行各業中較簡易的AI運用,CPU(中央處理器)仍扮演一定角色。英特爾(Intel)業務暨營銷業務群商用業務總監鄭智成認為:「這會是CPU很好瞄準的市場。」
GPU和CPU最大的不同之處在於,兩者處理計算的方式不同。可以想像,GPU內的資料處理,是同時並進運行;CPU的處理方式則是按照順序進行,兩者之間沒有優劣之分,而是當初開發的目的不同,所產生的最終結果。
今年一月,英特爾推出針對高速運算(HPC)、AI等應用的第四代伺服器CPU「Xeon」。當時Moor Insights & Strategy分析師Matt Kimball就在《Forbes》上評論表示,英特爾已經找到未來的布局方向。依當前情況來看,有兩大重點。
首先,以近期當紅的Chat GPT來說,知名半導體博客Semi Analysis分析師Dylan Patel估算,OpenAI需要約28,936個GPU來為Chat GPT提供服務,估計每次查詢的成本為0.36美元,價格高昂。「但真實的企業,不會用到像Chat GPT那麼多顆的CPU,」鄭智成表示,Xeon瞄準的是為企業所用、但不需用到強大算力的數據中心。
他進一步解釋,對不少企業來說,接下來的AI應用會以特定領域的垂直應用為主,而非大量的算法。舉例來說,以聊天機器人而言,部分企業需求僅停留在能夠回答顧客問題,併兼具資訊安全功能即可,在這樣的情況下,Xeon無論是在省電、成本和表現上,將會是較適合的選擇。
Kimball也分析,處理器是否能有效率的負載龐大的工作量,同時兼具安全性,是IT工程師最在乎的,「主打高端產品會讓人覺得印象深刻,但實際性能就不一定。」換句話說,企業往後要使用的,不見得要是最頂尖的處理器,但必須是符合當下情況最好用的。
這也能看出,英特爾在未來AI處理器的布局上,選擇了不同的戰場,加強對中、小企業的布局,與英偉達這樣的GPU大廠,做出差異選擇。
其次,則是Xeon這顆CPU,開始具備了訓練AI模型的功能。
實際上,過去前三代的Xeon僅僅具備推論(inference)的功能,也就是運用已經訓練好的AI模型進行運算,並產生最終答案的過程,其中並不涉及到初期餵入大量資料,進行模型建制的過程。
然而到了第四代的Xeon,開始具備模型訓練的功能。鄭智成表示,不是所有的AI模型生成都如此龐大,諸如CRM(客戶關係管理)、資料庫運行等基本運用,或許只需要一天、甚至半天的訓練時間,「更適合用CPU來處理就好。」
這意味著,諸如基因測序模型、氣象模擬等大型應用之外,CPU能在其中處理中、小型的模型訓練運算,預期可拓展英特爾在AI應用方面的市場,「不是說所有工作都要轉移到CPU,若資料量很大,企業也會採用ASIC(定製化晶片)、GPU等,目的不同。」
目前,採用Xeon做AI的案例不少,如西門子(Siemens)便採用該產品做圖片識別。另外,諸如AWS、Cisco(思科)、Dell(戴爾)、Google等,都是英特爾的Xeon客戶;而包含英業達、華碩、緯創、仁寶、和碩、宏碁和廣達等台灣企業,也都已經採用。
除此之外,英特爾也已推出單一平台,讓更多的AI開發者能夠有足夠工具來開發,實現AI民主化。並會持續融合AI功能於CPU其中,「我們是全世界唯一可以做到這點的製造商。」鄭智成說。
而對於將來Xeon的代工策略,鄭智成則表示,第五代的Xeon將持續採用Intel7,預計在2024年,新一代的Xeon處理器Granite Rapids和Sierra Forest,才會採用Intel3製程。
本文轉載:數字時代