WWDC 2024上,蘋果帶來了Apple Intelligence,不過這項功能卻僅僅支持搭載A17 Pro的iPhone 15 Pro與iPhone 15 Pro Max,舊款iPhone以及搭載M2晶片的Vision Pro均不支持。
此前有報道稱是因為舊款iPhone的性能不夠,運行內存太小,因此不支持Apple Intelligence。但Apple Intelligence分為設備端與雲端兩部分,既然舊款iPhone的性能不足以支持端側AI,那麼為何雲端AI也不支持呢?
根據John Gruber對蘋果的採訪,這背後的原因看起來似乎頗為複雜。
根據蘋果工作人員的回答,舊款iPhone的設備速度不夠快,無法提供良好的體驗,而蘋果認為一項功能如果體驗不夠好,那麼就不如不提供。
另外Apple Intelligence包含了眾多大模型,設備端運行的模型與雲端運行的完全不同,而Apple Intelligence中有一項模型為啟發式模型,它可以確定哪些任務是可以通過設備端AI處理執行,哪些需要進行雲端AI處理或者調用ChatGPT。也就是說設備端AI要處理的任務,並不是藉助雲端AI就可以完成。
而且蘋果承擔了雲端AI進行大量計算的服務器成本,如果蘋果為舊款iPhone啟用Apple Intelligence,那麼舊款iPhone在雲端AI的需求會更多,蘋果所承擔的服務器成本也會更高。
Apple Intelligence並不支持Vision Pro,雖然這款設備搭載了M2晶片,但是由於VisionOS仍然是一個尚未成熟的平台,蘋果仍在忙於構建基礎功能,並且設備運行時M2已經基本處於滿載狀態,因此沒有足夠的性能來供Apple Intelligence使用。
其實不難看出,蘋果的Apple Intelligence還是以設備端性能為基石,而雲端AI更像是錦上添花而已。