
根據 Capgemini 研究院的報告,如果企業能為其用例"選擇合適的模型"並在整個生命周期中實施可持續實踐,生成式人工智慧 (GenAI) 系統帶來的環境影響可以顯著降低。Capgemini 的《開發可持續生成式 AI》報告指出,對於最新的生成式預訓練 Transformer (GPT) 模型,僅訓練階段就消耗相當於 5,000 個美國家庭一年的能源,而在業務環境中運行模型還需要"相同或更多的能源"。
這意味著對大語言模型 (LLM) 的一次查詢所需的電力是 Google 搜索的 10 倍。
報告補充說,在一年時間裡,將生成式 AI 集成到產品和服務中的組織數量從 6% 上升到 24%。此外,預計到 2026 年,生成式 AI 將占組織溫室氣體排放總量的 4.8%,高於目前的 2.6%。
Capgemini 還表示,使用 LLM 運行 20 到 50 次查詢每次需要約 500 毫升水,到 2030 年,生成式 AI 可能產生 120 萬到 500 萬公噸的電子垃圾 (需要開採稀土金屬) 到訓練模型以運行龐大的數據中心,所有這些步驟都顯著影響環境。
對大多數組織來說,生成式 AI 產品和服務的使用屬於其範圍 3 排放——指發生在公司運營之外但仍是其活動結果的間接溫室氣體排放。
然而,Capgemini 表示,在模型生命周期的各個階段做出正確選擇——包括選擇硬體、模型架構、數據中心電源和最終用例——可以顯著降低環境影響。
該報告還補充說,在某些情況下,如果可以使用資源效率更高的模型獲得類似結果,企業應該考慮是否真的需要能源密集型的生成式 AI 技術。
Microsoft 生成式 AI 總監 Vishal Singhvi 表示:"每個人都想用生成式 AI 做點什麼,但很多時候你根本不需要它。你可以用傳統 AI 很好地完成工作,它消耗的計算能力和工作負載要少得多。"
小語言模型
因此,組織應該考慮是否可以使用小語言模型 (SLM) 來完成任務。與 LLM 相比,小語言模型使用更小且更具體的數據集進行訓練。
Capgemini 表示,這不僅可以顯著減少排放,還能降低成本。Mistral AI 的 CEO Arthur Mensch 表示:"更小的模型意味著應用程序運行成本更低,更重要的是,如果你有一個小 100 倍的模型,你可以用相同的成本調用它 100 次,每次調用都能為你的應用帶來更多智能。"
對於英國 Orchard Hill College and Academy Trust 的董事會成員 Mauli Tikkiwal 來說,組織必須意識到他們使用生成式 AI 如何導致負面環境影響。她說:"首先,你必須識別影響,這樣才能追蹤和減少它。"
然而,雖然監測和追蹤排放至關重要,但 Capgemini 調查的受訪者中只有 14% 表示其公司測量和追蹤其生成式 AI 足跡。
四分之三的高管將供應商的"有限透明度"視為測量環境影響的挑戰。報告稱:"他們期望科技行業在實現這一目標方面發揮帶頭作用。"
儘管存在這些趨勢,Capgemini 強調了一些科技公司如何可持續地應對這項技術。
例如,報告指出,Nvidia 最新的 GPU 比前代產品效率高 30 倍;MIT 衍生初創公司 LiquidAI 開發了"自適應且能耗更低"的算法技術;Microsoft 在其 LLM 中引入了能源監測功能。
報告還強調了 Meta 簽署協議為其美國數據中心購買地熱能,以及 Google Carbon Sense Suite,這是"一系列功能的集合,可以輕鬆準確地報告你的碳排放並減少排放"。
在 2024 年 6 月的倫敦 AI 峰會上,可持續發展專家表示,雖然這項技術可以通過多種方式幫助企業變得更加環保,但必須認識到它目前對地球造成的明顯負面影響。
他們表示,雖然它可以通過連接數據源並使其更易讀來幫助企業更好地管理其範圍 3 排放,但由於組織收集、管理和共享數據的方式不同,這些排放可能難以追蹤。