
今年的蘋果 WWDC,是一場事先張揚的 AI 發布會,庫克罕見地從幾個月前就在各種場合渲染氣氛。
可當你上個月看過 OpenAI 和 Google 、微軟的發布會,又會覺得這不像一場 AI 發布會。

蘋果甚至沒有正式發布一款大模型,沒有對比友商參數量、多模態能力這些常規環節,沒談 AGI 的未來,也沒有祭出像 Copilot 這種被媒體高呼「顛覆一切」的爆款應用。
蘋果反而造了一個叫 Apple Intelligence(下稱「Apple 智能」)的詞,這個諧音梗是在告訴人們,蘋果發布的不是一款軟體或硬體,而是一種新的用戶體驗。
庫克認為 AI 必須以用戶為中心,需要無縫集成到你日常使用的體驗中:
它必須了解你,並基於你的個人背景,比如你的日常生活、你的人際關係、你的溝通等等,所有這一切都超出了人工智慧的範圍。這是個人智能,也是蘋果公司的下一個重大舉措。
蘋果選擇將 AI 能力滲透到整個生態之中,這意味著很難看到 GPT-4o 那種讓人歡呼的演示,但這種「沒有驚喜」和去年 iPhone 15 發布時有所不同,那是智慧型手機宏大敘事終結的側寫。
而 Apple 智能,是在給 AI 應用鋪墊一種新的敘事,這可能不只是蘋果的新篇章。
個人智能和個人隱私
在 Apple 智能亮相時,蘋果就總結了它的五個特點:強大、易用、深度整合、個人化、私人化。
要想讓 AI 融合生活細節,甚至不被察覺,得讓 AI 甚至比你還了解你自己。這也意味著你的個人數據越多,就越可能實現,隨後不能不面對的問題就是:這是否要建立在讓渡個人隱私的基礎上實現?
這也是今天發布會後,馬斯克批評蘋果的由來。
他甚至直接在庫克的推文下表示「要禁止所有蘋果設備進入我公司的辦公場所」,並對蘋果和 OpenAI 合作後用戶隱私安全的保護提出質疑。

其實這也的確是用戶會擔憂的問題,尤其對於活躍設備高達 22 億的蘋果。但這也和蘋果對隱私保護一向慎重的行事風格相悖。
過去蘋果設備和 AI 相關的功能基本都是依靠本地機器學習實現的,所需的數據量很少,很大程度上就是基於對個人隱私的考慮。
雖然蘋果在發布會上對這些問題沒有一一介紹,但我們通過會後的一些媒體分享會,也了解到更多 Apple 智能在隱私方面的處理方式,可以試著釐清目前網路上爭議較大的一些問題。

APPSO 獲悉,蘋果針對涉及雲端的數據處理提供了兩個新的解決方案。
首先,用戶不必將所有數據、所有郵件、所有消息、所有照片、所有文檔發送到別人的雲端並存儲在那裡,以便伺服器模型在需要時可以探測它們。
相反,用戶的設備上的 Apple 智能會找出哪些小部分資訊與回答這個問題相關。因此,向雲端提出的問題只包含這些小部分資訊,而蘋果對小部分資訊再進行保密處理。
蘋果創建了一個加密系統,比如 iPhone 只能與帶有指定標籤的伺服器通信。換句話說,如果這台伺服器上的軟體有任何更改,其簽名也會隨之改變,而你可以拒絕與其通信。
包括和 OpenAI 合作的用戶數據處理也是,擁有註冊賬號的用戶 IP 地址在使用服務時會被隱藏掉,OpenAI 也不被允許記錄用戶請求。

這或許會在一定程度解答公眾的疑惑,蘋果也的確有必要在這方面披露更多資訊。強調「個人化」的 Apple 智能,要實現發布會上的藍圖,這是必須要處理好的問題。
而且蘋果和 OpenAI 的合作模式很可能並非獨家,未來在不同的場景,不同的地區,顯然是保留了其他大模型合作的空間。
這也並非蘋果一家廠商要面臨的問題,但無論是誰都必須慎重挑選合作夥伴,當 AI 隨著大量終端設備滲透生活,隱私和便利的交鋒會愈加激烈,即便被認為是忍受度更高的中國市場亦是如此。
一場沒有硬體的發布會,卻對硬體影響很大
Apple 智能從命名到實現方式,都看出蘋果要以自己的方式來定義 AI 硬體,將 AI 能力滲透到整個生態之中,而不是推出某一個殺手級應用和功能。

這是和目前大量 AI 硬體最大的不同,去年開始硬體廠商掀起了 AI 硬體的潮流。當中不少都是將 AI 硬體簡單等同於大模型 終端設備,結果就是推出的往往是某個功能,更新實驗性質的半成品。
這也是 Ai Pin 和 Rabbit R1 等網紅 AI 硬體熱鬧一波就折戟沉沙的重要原因。

Apple 智能的思路和過去機器學習在蘋果產品的應用方式類似,儘管蘋果不怎麼提 AI ,但已經融入到很多常用的小功能,比如 AirPods Pro 自適應音頻模式也是通過機器學習實現。
很多人說在大模型時代蘋果已經掉隊,從單一技術上來說很可能的確如此,但蘋果需要的從來不是一個比 ChatGPT 更牛逼的模型,而是將算力轉化為整體而非局部的體驗。
雖然這場發布會系統和軟體是主角,但硬體是沒有被明示但卻至關重要的一環。APPSO 了解到,這次 Apple 智能在端側運行的是規模在 30 億參數的模型。
蘋果對此低調但卻充滿信心,據悉蘋果工程師認為這是目前最好的端側模型。
作為對比,不久前微軟發布的端側小模型 Phi-Silica 參數為 33 億,而國內手機廠商在端側大部分場景的模型大約在 70 億-130 億參數之間。

參數越高大概率意味著更高的性能,但如果能以更小的參數規模實現同樣的性能,這對移動設備和大模型的結合有更大的意義。
而且業內很多研究已經證明,經過微調的小模型性能在某些使用場景下未必不如大模型。蘋果此前曝光的開源小模型 OpenELM ,就涵蓋 2.7 億、4.5 億、11 億和 30 億參數。
儘管蘋果認為用戶看重的是體驗,並非參數規模,但端側模型大概率是蘋果在悄悄發力的地方。
如果順利,蘋果極有可能推動一波新的硬體浪潮,從 Vision Pro 到帶攝影機的 AirPods,以及傳言中的家務機器人等。憑藉強大的設計生產和供應鏈能力,蘋果可以重新用軟體來塑造硬體。
這場沒有發布任何新硬體的發布會,可能才是近年來對蘋果硬體影響最大的一次發布會。
Siri 將成為蘋果真正的作業系統
當蘋果要將 AI 的能力集成到作業系統中,Siri 就成為重要的橋樑。
在今天的媒體分享會上,蘋果公司機器學習和人工智慧戰略高級副總裁 John Giannandrea 就表示:
Siri 不再僅僅是一個語音助手,它實際上成為了一種設備系統。

我們之前在 WWDC 前瞻文章也預測過,蘋果 AI 最終的目標是實現這樣的場景:早上起床,用一句「Siri」喚醒 Siri,朗讀最新的文章,就這樣在完全不用動手的情況下,聽取愛范兒的早報。
Siri 能變聰明,其實就是語義理解能力的提升,能像人一樣理解所有這些數據的含義。隨著時間的推移,這種理解會變得更加豐富。

大模型興起後的自然交互語言,一直被認為將取代我們現在和設備的圖形界面 GUI,背後是電腦對自然語言的理解能力大幅提升。
基於自然語言的交互到來,影響的不只是我們的隨身設備,應用的形態也將完全改變,比如 Siri 通過 API 調用具體的能力執行各種任務,甚至 app 都將不需要了,或以一種新的形態出現。
OpenAI 已經離職的聯合創始人 Andrej Karpathy 也表達了類似的觀點,他認為這是 Apple 最令人興奮的地方,並列舉了六點理由:
多模態 I/O:支持文本、音頻、圖像和影片的讀寫功能。這些可以說是人類的原生 API。 代理性:允許作業系統和應用程序的所有部分通過「函數調用」進行互操作;核心進程的 LLM 可以根據用戶查詢調度和協調工作。無縫體驗:以高度無縫、快速、始終在線的方式完全集成這些功能。無需複製粘貼資訊或提示工程,相應地調整 UI。主動性:不僅是根據提示執行任務,而是預測提示、提供建議並主動執行。 委派層級:儘可能多地在設備上運行智能(Apple Silicon 非常適用),但也允許將工作委派到雲端。 模塊化:允許作業系統訪問和支持整個不斷增長的 LLM 生態系統(例如 ChatGPT 的發布)。 隱私保護:
今天蘋果 WWDC 各種細節,都在隱隱指向這個未來。但蘋果也知道這大概率還不會在幾年內實現,所以只告訴你,起碼 Siri 好用多了。
過去兩年,我們最不缺的,其實就是 AIGC 帶的「Amazing」。但猶如手機和網際網路那般,深度嵌入生活肌理的技術或產品,還不見端倪。
潤物細無聲,才是技術革新的終極目標,也是 AI 的理想形態,這也是 Apple 智能最值得期待的地方。