這項由Meta FAIR實驗室的Itai Gat、Heli Ben-Hamu等多位研究人員共同完成的突破性研究,於2025年9月發表在arXiv平台上。研究團隊提出了一種名為"集合塊解碼"(Set Block Decoding, SBD)的創新技術,成功讓大型語言模型的推理速度提升了3到5倍。有興趣深入了解這項研究的讀者可以通過論文編號arXiv:2509.04185v1訪問完整技術報告。
當前大型語言模型雖然功能強大,但在實際應用中面臨著一個關鍵瓶頸——推理速度太慢。就像一個博學的教授回答問題時必須一個字一個字地慢慢說出來,現有的語言模型也只能逐個生成詞彙,無法同時產出多個詞語。這種限制不僅影響了用戶體驗,也大大增加了計算成本,讓許多實際應用變得不切實際。
研究團隊巧妙地設計出一種全新的解碼方法,讓模型能夠像熟練的打字員一樣同時處理多個位置的文字生成。這種方法的關鍵創新在於,它不僅能讓模型預測下一個詞,還能同時預測未來多個位置的詞彙,而且這些詞彙不需要是連續的。這就像在填字遊戲中,你可以同時填入第3格、第7格和第12格的字母,而不必按順序逐格填寫。
更令人驚喜的是,這種技術不需要重新設計模型架構,也不需要從頭開始訓練。研究團隊通過對現有的Llama-3.1 8B和Qwen-3 8B模型進行微調,就實現了顯著的加速效果。在代碼生成基準測試LiveCodeBench-V6上,該技術將模型推理速度提升了3.6到4.7倍,同時保持了與原始模型相同的準確性。
一、傳統語言模型的困境:一字一句的慢節奏
要理解這項技術的革命性意義,首先需要了解傳統語言模型是如何工作的。現有的大型語言模型採用一種叫做"下一個詞預測"的方法,這種方法就像一個謹慎的作家,必須寫完一個詞後才能思考下一個詞該寫什麼。
這種逐詞生成的過程包含兩個主要階段:預填充階段和解碼階段。預填充階段就像讀者快速瀏覽整篇文章的背景資訊,模型能夠並行處理成千上萬個詞彙,效率相當高。然而,解碼階段就像是一個人在黑暗中摸索前進,每次只能邁出一步,看清楚腳下的路後才能決定下一步怎麼走。
在解碼階段,雖然每個詞的計算量相對較少,但模型必須反覆讀取整個模型的權重參數和之前生成的所有資訊。這就像一個學生每寫一個字都要重新翻閱整本教科書,效率自然很低。更糟糕的是,隨著生成文本的增長,需要存儲和讀取的資訊也越來越多,就像書包越背越重,行走速度也越來越慢。
這種限制在實際應用中造成了嚴重的問題。當用戶向ChatGPT或其他AI助手提問時,往往需要等待數秒甚至更長時間才能看到完整回答。對於需要大量文本生成的應用場景,比如自動寫作、代碼生成或文檔翻譯,這種慢速度不僅影響用戶體驗,也大大增加了運營成本。
二、並行解碼的早期探索:多線程思考的嘗試
面對傳統方法的速度瓶頸,研究界早就開始探索讓模型同時生成多個詞彙的可能性。這種方法被稱為"並行塊解碼",就像讓一個人同時用多支筆寫字,理論上應該能大幅提升效率。
早期的並行解碼方法採用了一種相對簡單的策略:讓模型同時預測接下來的k個詞彙。這就像讓一個作家同時構思句子中的下一個詞、下下個詞,以此類推。然而,這種方法面臨著一個根本性的數學難題——隨著需要同時預測的詞彙數量增加,可能的組合數量呈指數級增長。
為了解決這個問題,研究人員採用了一種妥協方案:假設這些需要同時生成的詞彙之間是相互獨立的。這就像假設一個句子中的每個詞都不會影響其他詞的選擇,顯然這是一個過於簡化的假設。在實際語言中,詞彙之間往往存在密切的依賴關係,比如形容詞通常要與後面的名詞保持一致。
由於這種獨立假設過於粗糙,早期的並行解碼方法需要一個額外的驗證步驟。這個過程就像讓一個編輯檢查作家同時寫出的多個詞是否真的能組成一個合理的句子。驗證過程只能接受從第一個詞開始的連續詞序列,如果中間某個詞不合適,後面的詞也必須全部丟棄重寫。
這種方法雖然在理論上提供了一些加速,但實際效果往往不夠理想。驗證步驟本身就需要消耗計算資源,而且由於獨立性假設的限制,很多時候生成的詞序列無法通過驗證,需要反覆重試。這就像一個不太熟練的打字員,雖然試圖同時按多個鍵,但經常出錯,最終還是需要逐個重新輸入。
三、投機解碼的智慧:快慢結合的策略
為了克服早期並行方法的局限性,研究界又發展出了一種更加精巧的策略——投機解碼。這種方法的核心思想是建立一個"快慢搭配"的工作模式,就像讓一個反應敏捷但不夠精確的助手先提出建議,然後由一個更加謹慎準確的專家來審核確認。
投機解碼使用兩個模型協同工作:一個小而快的"草案模型"負責快速生成候選詞彙,另一個大而準確的"目標模型"負責驗證這些候選詞彙是否合適。這種分工就像一個創意團隊,先由頭腦風暴產生大量想法,再由資深專家篩選出最優方案。
草案模型通常是一個參數量較少的輕量級模型,能夠快速生成多個候選詞彙。由於它的"思考"過程相對簡單,生成速度很快,但準確性可能不夠高。目標模型則是我們真正想要使用的高質量大型模型,它負責對草案模型的建議進行嚴格評估,只接受那些真正符合要求的詞彙。
這種方法的優勢在於,當草案模型的建議質量較高時,系統可以一次性接受多個連續的詞彙,從而大大減少目標模型需要運行的次數。這就像一個資深編輯遇到了一個優秀的初級寫手,很多時候可以大段大段地接受對方的文字,只需要偶爾進行修改。
然而,投機解碼也有其固有的複雜性。首先,它需要維護兩個不同的模型,增加了系統的複雜度和內存占用。其次,草案模型的質量直接影響整體效率——如果草案模型經常提出不合適的建議,反而會拖累整體性能。最後,這種方法只能接受連續的詞彙序列,限制了並行處理的靈活性。
四、集合塊解碼的創新突破:任意順序的並行魔法
Meta FAIR團隊提出的集合塊解碼技術代表了並行解碼領域的一次重大突破。這項技術的核心創新在於突破了傳統方法對連續性的嚴格要求,允許模型以任意順序同時生成多個詞彙。這就像一個熟練的拼圖專家,可以同時在拼圖的不同區域工作,而不需要嚴格按照從左到右、從上到下的順序。
集合塊解碼的工作原理建立在一個精妙的組合策略上:它將傳統的"下一詞預測"和"遮蔽詞預測"融合到同一個模型架構中。遮蔽詞預測就像填空題,模型需要根據上下文資訊猜出被遮住的詞彙。通過巧妙地結合這兩種預測方式,模型獲得了前所未有的靈活性。
在具體實現中,集合塊解碼允許模型同時看到未來某個文本塊中的部分詞彙,然後預測其中被遮蔽的詞彙。這種方法的巧妙之處在於,模型可以利用未來已知詞彙的資訊來更準確地預測未知詞彙。這就像在做填空題時,你不僅可以看到空格前面的文字,還能看到空格後面的一些提示資訊。
更重要的是,集合塊解碼可以靈活選擇在每一步中揭示哪些詞彙。系統可以優先選擇那些相對容易預測的詞彙,然後利用這些已知資訊來預測更困難的詞彙。這種策略就像解決數學題時,先解決簡單的部分,然後利用已知結果來攻克更複雜的問題。
這種靈活性為使用先進的採樣策略打開了大門。研究團隊採用了來自離散擴散文獻的"熵界採樣器",這是一種能夠智能決定每步應該同時預測多少個詞彙的算法。該算法通過分析不同位置詞彙預測的不確定性,選擇那些相對獨立且容易預測的詞彙進行同時生成。
五、訓練過程的巧妙設計:無縫融合兩種能力
集合塊解碼技術的一個重要優勢是它可以通過微調現有的語言模型來實現,而不需要從頭開始訓練。這種方法就像給一個已經熟練掌握寫作的人教授速記技能,在保持原有能力的基礎上增加新的技能。
訓練過程採用了一個精心設計的混合損失函數,同時訓練模型的兩種核心能力。第一種能力是傳統的下一詞預測,確保模型保持原有的語言生成質量。第二種能力是遮蔽詞預測,讓模型學會根據部分上下文資訊預測缺失的詞彙。
在訓練數據的準備過程中,研究團隊使用了一種隨機遮蔽策略。對於每個訓練樣本,系統會隨機決定遮蔽哪些詞彙,遮蔽的比例也是隨機變化的。這種方法確保模型能夠適應各種不同的預測場景,就像讓一個學生練習各種難度的填空題。
訓練過程中的注意力機制設計也頗為精妙。對於過去的詞彙,模型使用傳統的因果注意力,確保資訊只能從前往後傳遞。對於未來的詞彙塊,模型使用雙向注意力,允許塊內詞彙相互參考。這種設計既保持了語言模型的基本特性,又增加了並行處理的能力。
更重要的是,這種訓練方法不需要修改模型的基礎架構,也不需要引入額外的超參數。研究團隊成功地對Llama-3.1 8B和Qwen-3 8B等主流模型進行了微調,證明了這種方法的廣泛適用性。微調過程使用了70億個tokens的高質量數據,包括推理和指令數據,確保模型在獲得加速能力的同時不會損失原有的性能。
六、推理過程的智能策略:熵界採樣的藝術
集合塊解碼在推理階段的工作方式堪稱藝術品般精妙。系統不是盲目地同時預測儘可能多的詞彙,而是採用了一種叫做"熵界採樣器"的智能策略,動態決定每一步應該同時生成多少個詞彙。
熵界採樣器的工作原理類似於一個經驗豐富的象棋大師在復盤時的思考過程。面對棋盤上的複雜局面,大師不會嘗試同時分析所有可能的走法,而是先識別出那些相對簡單、風險較低的步驟,然後逐步擴展到更複雜的變化。
具體來說,採樣器會計算每個遮蔽位置的預測不確定性,這個不確定性用資訊熵來衡量。資訊熵就像一個"困難度指標"——數值越高,說明模型對這個位置的詞彙越不確定,預測風險越大。採樣器會按照不確定性從低到高的順序對遮蔽位置進行排序,然後選擇那些總體風險不超過預設閾值的位置進行同時預測。
這種策略的精妙之處在於它能夠自適應地平衡速度和準確性。當模型對大部分位置都很有把握時,系統可以同時預測較多詞彙,實現更高的加速比。當遇到困難的語境時,系統會自動減少同時預測的詞彙數量,確保生成質量不受影響。
採樣過程是疊代進行的,就像逐層剝洋蔥一樣。每一輪疊代中,系統選擇一部分相對簡單的位置進行預測,然後將預測結果作為已知資訊,為下一輪預測提供更多的上下文支持。這種逐步揭示的過程往往只需要幾輪疊代就能完成整個塊的生成,相比傳統方法需要逐詞生成k次,效率提升非常顯著。
七、性能評估的全面驗證:多維度的成功證明
Meta FAIR團隊對集合塊解碼技術進行了極其全面的性能評估,涵蓋了從推理任務到聊天應用的各種場景。評估結果顯示,這項技術在保持原有性能的同時,實現了令人印象深刻的加速效果。
在推理類任務的測試中,研究團隊選擇了三個具有代表性的基準測試:AIME25數學競賽題目、LiveCodeBench代碼生成挑戰以及Math500數學問題集。這些測試就像給AI學生安排了不同科目的期末考試,全面檢驗其解決複雜問題的能力。結果顯示,使用集合塊解碼的模型在這些任務上的表現與傳統方法幾乎完全相同,同時將推理速度提升了3.2到5.4倍。
特別值得關注的是LiveCodeBench測試的結果。在這個代碼生成基準測試中,Llama-3.1模型使用集合塊解碼技術後,Pass@1準確率從31.5%提升到31.3%,基本保持不變,但推理速度卻提升了4.6倍。這個結果對於實際的代碼生成應用具有重要意義,意味著程序員可以更快地獲得AI助手的代碼建議,大大提升開發效率。
在聊天類任務的測試中,團隊選擇了GSM8K數學問題、HumanEval 編程題以及MBPP基礎編程問題。這些測試模擬了日常使用AI助手時的典型場景,從解數學題到寫程序代碼。結果同樣令人振奮:在保持準確性的前提下,系統實現了2.2到3.0倍的加速效果。
研究團隊還特別設計了兩種不同的配置來滿足不同的應用需求。"低γ配置"優先保證準確性,適合對結果質量要求較高的場景,通常能實現3倍左右的加速。"高γ配置"追求更高的速度提升,可以實現4到5倍的加速,但可能會有輕微的準確性損失。這種靈活的配置選項就像汽車的經濟模式和運動模式,用戶可以根據具體需求選擇合適的平衡點。
八、技術深度剖析:架構創新的精妙細節
集合塊解碼技術的成功不僅僅來自於概念上的突破,更得益於一系列精心設計的技術細節。這些細節就像一台精密機器中的每個齒輪,看似微小但缺一不可。
在模型架構層面,集合塊解碼採用了一種混合注意力機制。對於輸入序列的前半部分(已經生成的文本),模型使用傳統的因果注意力,確保資訊只能從前往後流動,保持了語言模型的基本特性。對於後半部分(正在生成的文本塊),模型使用雙向注意力,允許塊內的詞彙相互參考和影響。
這種設計的巧妙之處在於它完美保持了與現有KV緩存技術的兼容性。KV緩存是現代語言模型推理優化的核心技術,它通過緩存注意力機制中的鍵值對來避免重複計算。集合塊解碼不僅保持了這種兼容性,還充分利用了緩存機制來進一步提升效率。
在位置編碼的處理上,研究團隊採用了一種創新的復用策略。傳統方法中,每個位置都有獨特的位置編碼,但在集合塊解碼中,同一位置的詞彙無論是在自回歸部分還是在並行部分,都使用相同的位置編碼。這種設計確保了模型能夠正確理解詞彙在序列中的相對位置關係。
損失函數的設計也體現了研究團隊的深思熟慮。系統同時計算下一詞預測損失和遮蔽詞預測損失,並將它們巧妙地結合在一起。下一詞預測損失確保模型保持傳統的生成能力,遮蔽詞預測損失則訓練模型的並行預測能力。這種雙重訓練策略就像讓一個運動員同時練習不同的技能,最終形成更全面的能力。
九、規模化訓練的實踐智慧:從小模型到大模型的成功遷移
為了驗證集合塊解碼技術的普遍適用性,研究團隊不僅在大型模型上進行了測試,還深入研究了該技術在不同規模模型上的表現特徵。這種多尺度的研究方法就像科學家在不同倍數的顯微鏡下觀察同一個樣本,確保發現的規律具有普遍性。
在3B參數規模的小型模型實驗中,團隊發現了一些有趣的訓練規律。首先,集合塊解碼模型需要比傳統模型稍長的訓練時間才能達到相同的性能水平。這種現象類似於學習一門新技能——剛開始可能會比原來的方法慢一些,但熟練之後效率會大大提升。
更重要的是,研究團隊發現傳統下一詞預測損失在訓練過程中起著關鍵作用。當他們嘗試去除這個損失分量時,模型的傳統生成能力出現了明顯下降,在MMLU、GPQA等標準測試中的表現大幅降低。這個發現證實了混合訓練策略的重要性——新能力的獲得不能以犧牲原有能力為代價。
在訓練步數的研究中,團隊發現集合塊解碼模型大約需要34,000步訓練才能完全發揮其潛力,這比傳統模型需要更多的訓練時間。但考慮到獲得的顯著加速效果,這種額外的訓練成本是完全值得的。這就像投資更多時間學習高效的工作方法,短期內可能需要額外付出,但長期收益巨大。
在8B參數的大型模型實驗中,研究團隊使用了更加豐富的訓練數據,包括70B tokens的高質量推理和指令數據。訓練過程採用了AdamW優化器,學習率設置為3e-4,批處理大小為2M tokens。這些精心調優的參數確保了大型模型能夠充分利用集合塊解碼的優勢。
十、理論分析的深度洞察:屋頂線模型的速度預測
為了深入理解集合塊解碼技術的加速原理,研究團隊建立了一個詳細的理論分析框架,被稱為"屋頂線模型"。這個模型就像建築師在設計大樓時使用的結構分析工具,能夠準確預測系統在不同條件下的性能表現。
屋頂線模型的核心思想是分析計算系統的兩個關鍵瓶頸:計算能力和內存帶寬。在現代GPU上,任何操作的執行時間都會受到這兩個因素中較嚴格的那一個限制。這就像一個生產流水線,最終產能總是受到最慢環節的制約。
對於H100 GPU和8B參數的transformer模型,研究團隊建立了詳細的性能模型。他們考慮了FP8精度下的峰值計算性能、內存帶寬限制、以及注意力機制的特殊需求。通過這個模型,他們能夠預測不同塊大小和批處理大小下的理論加速比。
理論分析的結果非常令人鼓舞。對於16大小的塊,理論模型預測集合塊解碼的開銷相比傳統方法只增加不到5%,這意味著3-5倍的前向傳遞減少幾乎能夠直接轉化為相應的牆鍾時間加速。這個預測與實際實驗結果高度吻合,證明了技術方案的理論基礎是紮實的。
更進一步的分析顯示,隨著KV緩存長度的增加,集合塊解碼的相對優勢會變得更加明顯。這是因為在長序列生成過程中,內存訪問成本會逐漸占據主導地位,而集合塊解碼能夠更有效地分攤這些固定成本。
十一、與現有方法的對比:站在巨人肩膀上的創新
集合塊解碼技術的出現並非孤立的創新,而是建立在大量前期研究基礎上的突破性進展。通過與現有技術的詳細對比,我們可以更好地理解這項技術的獨特價值。
在與傳統投機解碼方法的對比中,集合塊解碼展現出顯著的優勢。傳統投機解碼需要維護兩個獨立的模型,這不僅增加了系統複雜性,還帶來了額外的內存開銷。相比之下,集合塊解碼只需要一個統一的模型,簡化了部署和維護過程。更重要的是,集合塊解碼不受連續性約束的限制,可以以任意順序生成詞彙,提供了更高的靈活性。
與Medusa、Eagle等多頭預測方法相比,集合塊解碼避免了架構修改的複雜性。這些方法需要在原有模型基礎上增加額外的預測頭,不僅改變了模型結構,還引入了大量需要調優的超參數。集合塊解碼則保持了原有架構的簡潔性,只需要通過微調就能獲得新能力。
在與最近的混合語言模型研究對比中,集合塊解碼顯示出獨特的平衡性。Block Diffusion、CtrlDiff等方法雖然也嘗試結合自回歸和並行生成,但往往在保持原始性能方面存在挑戰。集合塊解碼通過精心設計的訓練策略,成功實現了性能保持和速度提升的雙重目標。
特別值得注意的是與純擴散語言模型的對比。雖然Dream、LLaDa、Mercury等擴散模型在某些任務上表現出色,但它們通常需要從頭訓練,計算成本巨大。集合塊解碼則可以充分利用現有的預訓練模型,大大降低了實際部署的門檻。
十二、實際應用的廣闊前景:改變AI交互的遊戲規則
集合塊解碼技術的成功不僅僅是學術研究的勝利,更重要的是它為實際應用開闢了廣闊的前景。這項技術有望在多個領域產生深遠影響,從根本上改變人們與AI系統的交互方式。
在代碼生成領域,集合塊解碼的影響尤為顯著。程序員在使用AI編程助手時經常遇到的一個問題就是等待時間過長,特別是在生成複雜函數或長段代碼時。3-5倍的加速意味著原本需要等待10秒的代碼生成任務現在只需要2-3秒,這種改善足以顯著提升開發體驗和工作效率。
在文檔寫作和內容創作方面,加速效果同樣具有重要意義。無論是撰寫技術文檔、新聞報道還是創意寫作,作者都希望能夠獲得流暢的AI協助體驗。集合塊解碼技術使得AI能夠更快地生成高質量文本,減少了創作過程中的等待時間,讓人機協作變得更加自然順暢。
在教育應用場景中,這項技術的價值同樣不容忽視。AI tutoring系統需要能夠快速響應學生的問題,提供及時的解答和解釋。更快的推理速度意味著AI可以支持更多的並發用戶,降低教育AI系統的部署成本,讓更多學生受益於個性化的AI輔導。
對於企業級應用,集合塊解碼技術的經濟價值尤為突出。在雲服務環境中,推理速度的提升直接轉化為計算成本的降低。3-5倍的加速意味著相同的硬體資源可以服務更多的用戶請求,或者完成相同任務所需的計算資源減少到原來的1/3到1/5。這種成本優勢對於大規模AI服務提供商具有重要意義。
十三、技術挑戰與未來發展:前行路上的機遇與挑戰
儘管集合塊解碼技術取得了令人矚目的成功,但研究團隊也誠實地指出了當前面臨的挑戰和未來的發展方向。這種科學嚴謹的態度體現了優秀研究的特質。
當前最主要的挑戰之一是將理論上的加速優勢轉化為實際的牆鍾時間改善。雖然屋頂線模型的分析很有希望,但實際的GPU實現還需要大量的工程優化工作。這就像設計出了一個理論上很優秀的發動機,但要讓它在實際車輛中發揮最佳性能,還需要精細的調校和優化。
硬體感知的推理實現是另一個重要的發展方向。不同的GPU架構、內存配置和互連方式都會影響集合塊解碼的實際性能表現。研究團隊正在探索如何針對不同的硬體平台優化實現策略,確保技術優勢能夠在各種實際部署環境中得到充分發揮。
從算法角度來看,來自離散擴散文獻的更多先進採樣器有望進一步提升集合塊解碼的效果。當前使用的熵界採樣器已經表現出色,但研究人員相信還有更大的改進空間。這些新的採樣策略可能會帶來更精確的速度-準確性權衡控制,讓用戶能夠更靈活地調整系統行為。
模型規模化是另一個重要的研究方向。雖然當前的實驗主要集中在8B參數規模,但更大規模模型(如70B、175B甚至更大)的表現還有待進一步驗證。研究團隊計劃擴大實驗規模,探索集合塊解碼在超大型模型上的表現特徵。
最後,多模態擴展也是一個充滿潛力的方向。當前的集合塊解碼主要針對文本生成,但其核心思想也有可能擴展到圖像生成、音頻合成等其他模態。這種跨模態的應用可能會為AI系統的整體效率帶來更廣泛的提升。
說到底,Meta FAIR團隊的這項研究不僅僅是一個技術突破,更是對整個AI推理效率問題的一次深度思考和創新解答。通過巧妙地結合傳統自回歸生成和並行預測能力,集合塊解碼技術為大型語言模型的實際應用開闢了新的可能性。3-5倍的速度提升意味著用戶可以獲得更流暢的AI交互體驗,企業可以以更低的成本提供AI服務,研究人員可以更高效地進行大規模實驗。
更重要的是,這項技術的成功證明了"漸進式創新"的價值——不是推翻現有系統重來,而是在現有基礎上尋找突破點,通過精巧的設計實現顯著的改進。這種研究思路不僅降低了技術應用的門檻,也為其他研究方向提供了寶貴的啟示。隨著相關工程優化的不斷推進和新採樣策略的持續發展,我們有理由期待集合塊解碼技術將在AI應用的普及和發展中發揮更加重要的作用。
Q&A
Q1:集合塊解碼(SBD)技術是什麼?它與傳統語言模型有什麼不同?
A:集合塊解碼是Meta FAIR實驗室開發的一種新型語言模型推理加速技術。傳統語言模型必須逐個生成詞彙,就像一個人一個字一個字地寫文章。而集合塊解碼讓模型能夠同時預測多個位置的詞彙,這些詞彙不需要是連續的,就像在填字遊戲中可以同時填寫不同位置的字母。這種技術將推理速度提升了3-5倍,同時保持了原有的準確性。
Q2:集合塊解碼技術需要重新訓練模型嗎?成本高不高?
A:不需要從頭重新訓練,只需要對現有模型進行微調即可。研究團隊通過對Llama-3.1 8B和Qwen-3 8B等現有模型進行微調,就成功實現了加速效果。這種方法不需要修改模型架構,也不需要增加額外的超參數,大大降低了實際部署的成本和複雜度。相比完全重新訓練一個新模型,微調的成本要低得多。
Q3:這項技術在實際應用中能帶來什麼好處?普通用戶能感受到嗎?
A:普通用戶能明顯感受到改善。在代碼生成、文檔寫作、問答對話等場景中,原本需要等待10秒的AI響應現在只需要2-3秒。對企業來說,3-5倍的加速意味著相同的硬體可以服務更多用戶,或者大幅降低計算成本。這項技術特別適用於需要生成長文本的場景,比如AI編程助手、智能寫作工具和在線教育平台。