蘋果Siri自從iPhone 4s推出之後就成為了行業內語音助手的標杆,不過近年來安卓陣營的語音助手第一時間接入了大模型,從而讓其說話更像是真人,而蘋果這裡對於大語言模型還是比較保守,不過隨著Apple Intelligence的推進,蘋果對於AI的重視程度也與日俱增,達到了前所未有的程度,而AI最直觀的應用自然就是語音助手,據悉蘋果正在對Siri進行大改造,希望通過接入的LLM模型來讓Siri更加符合真人,只不過大家需要到2026年才能看到全面進化的Siri。
據悉全新的Siri被蘋果內部稱之為LLM Siri,從名字就可以看出Siri將會融合LLM,從而讓Siri更加符合普通人講話,並且思考也會跟人類一樣,從而滿足用戶複雜的語義需求以及詢問,當然蘋果Apple Intelligence實際上也並非第一時間應用在設備中,而是等成熟了才能通過推送給用戶使用,因此想要在明年推出LLM版Siri還是有點困難,預計要到2026年才能將成熟的LLM版Siri正式商用。
當然這裡的LLM版說的是採用蘋果自己LLM模型的Siri,而即將在iOS 18.2推送的Siri則採用OpenAI的ChatGPT,蘋果表示相比較其他用戶,蘋果用戶可以免費使用ChatGPT,通過ChatGPT來給用戶專業的回答,而蘋果自研LLM大模型就跟自研基帶一樣,主打一個自主可控,當然蘋果LLM模型實際效果究竟如何還是要等到2026年正式實裝後才能知道,畢竟儘管蘋果財大氣粗,但是翻車的項目也不少。