10月22日,康奈爾大學發布一項研究,揭示大語言模型在持續接觸低質量網路內容後,可能出現理解、推理與倫理一致性全面下降的「大腦退化」現象,引發行業對「死網論」的再度關注。

研究團隊以Llama 3和Qwen 2.5為對象,測試不同質量數據對模型的影響。結果顯示,當訓練數據全為低質內容時,模型準確率從74.9%降至57.2%,長文本理解能力從84.4%跌至52.3%。研究人員指出,這種「劑量—反應效應」會導致模型逐步退化,表現為推理過程簡化、回答膚淺化,並出現「人格漂移」,更易輸出錯誤資訊。
「死網論」認為網際網路因充斥AI生成或低質內容而喪失人類創造力。Reddit聯合創始人Alexis Ohanian指出,當前網路內容中已有很大比例「實際上已死」,呼籲構建可驗證人類真實性的社交平台。OpenAI首席執行官Sam Altman也認為「死網論正在我們眼前發生」,並指X平台多數賬號已由AI運營。
i never took the dead internet theory that seriously but it seems like there are really a lot of LLM-run twitter accounts now
— Sam Altman (@sama) September 3, 2025
內容質量危機正在加劇。AWS報告顯示,約57%的網路內容由AI生成或翻譯,影響搜索結果質量。Jack Dorsey警告,隨著生成技術與深度偽造普及,資訊真實性將更難辨別。專家提醒,若AI與網路生態持續陷入低質循環,「死網論」或將成為現實。


 
             
             
                            




