人工智慧(AI)是今年業界的熱門話題,以ChatGPT為首的各類人工智慧支持的應用受到了不少用戶的歡迎,背後需要大型語言模型(LLM)提供支持。雖然蘋果在人工智慧方面暫時還沒有帶來重量級的功能,不過近期公布的論文顯示,蘋果在人工智慧研究上已經下了不少功夫。
據TechPowerup報道,蘋果的研究人員通過新的閃存利用技術,使用閃存晶片存儲人工智慧模型的數據,讓內存有限的設備運行大型語言模型,比如iPhone。要知道大型語言模型需要大量的計算,十分消耗硬體資源,同時加速器和大容量內存也是必不可少,而蘋果的新方法旨在解決這些難題。
根據蘋果研究人員的介紹,通過將人工智慧模型數據存儲在閃存上,必要時才會轉移到內存,其中涉及到兩項關鍵技術:一是Windowing,人工智慧模型不會每次加載新數據,而是重複使用部分已經處理過的數據,從而減少讀取內存的次數,讓處理過程變得高效;二是Row-Column Bundling,通過更高效地分組數據,使其能更快地從閃存中讀取,最終加快了處理的速度。
蘋果稱在新技術的加持下,能讓iPhone運行人工智慧模型的規模達到可用內存容量的兩倍,M1 Max的CPU運行大型語言模型的推理速度可以提高4到5倍,而GPU可以20到25倍,能極大地擴展適用性和可訪問性。