宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

湖南台AI主播被罵上熱門,但AI每小時餵5700萬條「錯誤資訊」沒人管

2026年05月04日 首頁 » 熱門科技
天天被 AI 刷屏,這個五一假期我真的不想再看到 AI 生成的內容了。
結果我難得打開電視,卻發現,電視台已經開始用 AI 主持人來播報新聞。
 該圖片疑似使用了AI生成技術,請謹慎甄別
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
湖南經視在《經視新聞》宣布啟用 AI 主播湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管「聲聲」和「雙雙」,這也不是說湖南衛視要用 AI 完全替代真人,這兩位 AI 主播暫時只在五一假期期間播報常態化新聞,同時畫面中也標註「AI 生成」。
 該圖片疑似使用了AI生成技術,請謹慎甄別
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
AI 主播與真人主播合影
雖然如此,依然引發了大量網友吐槽,話題一度衝到微博熱門第一。
在港劇《新聞女王 2》里有一段這樣的劇情,主播文慧心離開電視台後,老東家把她和一位已故男主播「蒸餾湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管」成 AI 數字人湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管,繼續在台前播報新聞。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
現在,這樣的劇情已經成真。去年開始,越來越多的電視台已經開始試點類似的 AI 主播。
或許你一時間還不能接受 AI 主播,但說實話,現在用 AI 搜新聞看新聞,已經十分普遍了,搜尋引擎也把 AI 搜索融入到了搜索框裡。
實際上,比起 AI 主播,用 AI 看新聞是現在更需要警惕的。而未來,大量 AI 主播播報 AI 搜集撰寫的新聞,才是最可怕的。
一個調查數據顯示,Google AI 搜索新聞的結果,十條就有一條是錯的。
去年年底,住在多倫多的 41 歲數據分析師 Stephen Punwasi 在準備晚餐時看到一條新聞,說傳奇摔跤選手霍爾克·霍肯的死亡可能會引發訴訟。Punwasi 從來沒聽說過霍肯已經去世了,於是打開 Google,想查查這件事是什麼時候發生的。
Google 給他的第一條回答來自自家的 AI Overview :「沒有可信的報道表明霍爾克·霍肯已經去世。」
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
可就在這個回答的下方,Stephen Punwasi 看到第一條搜索鏈接就是《每日郵報》的一篇文章,標題是:「霍爾克·霍肯死亡之謎加深。」
人都懵了,這是怎麼個事呢?
每小時超 5700 萬條錯誤資訊
2024 年,Google 開始在搜索結果頁面最頂部放置 AI 生成的摘要回答,叫做 AI Overviews湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管。這個動作是 Google 生態全面加速 AI 化的第一波動作,把搜尋引擎從一個資訊的「策展人」變成了一個「發布者」。它不再只是告訴你哪裡有答案,而是直接告訴你答案是什麼。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
《紐約時報》委託 AI 初創公司 Oumi 對這個功能進行了系統測試。他們用行業標準的 SimpleQA 基準測試檢查了 4326 次 Google 搜索的 AI Overview 回答,分別在去年 10 月(基於 Gemini 2)和今年 2 月(升級到 Gemini 3湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管)進行了測試。
結果發現 Gemini 2 時期,準確率約 85%,錯誤率 15%。到了 Gemini 3 時期,準確率提升到 91%,錯誤率 9%
乍一聽 90%準確率聽起來還不錯,但考慮到 Google 每年處理超 5 萬億次搜索,即便只有 9%的錯誤率,換算下來也是每小時超 5700 萬條錯誤資訊,每分鐘數十萬條
這些錯誤答案被放在搜索結果的最頂部,用最權威的排版呈現,用戶看到的第一個東西,就是 AI 的回答。
看起來像答案,但不是答案
AI 會穩定出錯,出差錯的方式倒是花樣繁多,比如像開頭的故事那樣,屬於是直接答錯。
直接答錯看似最不應該,實則相當頻繁。在測試里,當被問到巴布·馬利的故居是哪一年改建為博物館時,AI Overview 回答說 1987 年。但正確答案是博物館在 1986 年 5 月 11 日開放,也就是馬利去世五周年紀念日當天,牙買加《每日光明報》在開館第二天就報道了。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
牙買加國家圖書館收錄的相關報道
AI Overview 引用了三個來源:一個是馬利女兒的 Facebook 帖子(根本沒提開館時間),一個是旅遊部落格(資訊不準確),一個是 Wikipedia 頁面,大家都知道,Wiki 的頁面變化非常頻繁,根本就不准。
有事後出錯則是因為資訊有一個模糊的來源,需要謹慎判斷,但 AI 推斷錯了。比如當被問到哪條河流在北卡羅來納州戈爾茲伯勒市的西側時,AI Overview 回答說是尼斯河(Neuse River)。它正確地找到了一個旅遊網站說尼斯河「流經該市」,但錯誤地推斷出它「在西側」。實際上西側的是小河(Little River),尼斯河在西南方。
最離譜的一種出錯方式找到了正確的來源,但給出相反的答案。當被問到大提琴家馬友友是哪一年被引入古典音樂名人堂時,AI Overview 正確地鏈接到了該組織的官網,網站上明確列出了包括馬友友在內的 165 位入選者。但 AI 的回答卻說:「沒有記錄顯示他被引入過。」
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
睜著眼睛說瞎話是吧,哦不,AI 沒有眼睛。
「它看起來像個正經答案啊」
Oumi 分析了 AI Overview 引用的 5380 個來源,發現 Facebook 和 Reddit 分別是第二和第四大被引用源。當 AI Overview 給出錯誤回答時,引用 Facebook 的比例是 7%;當回答正確時,這個比例是 5%。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
社交媒體是主要的資訊來源,但缺乏核實
換句話說,你看到的那個「最權威」的回答,數據來源可能是一條 Facebook 帖子,真是沒招了。
而且,即便回答本身是正確的,也不代表你能逆向查驗。Gemini 3 版本的 AI Overview 中,56%的正確回答是「無根據的」,意思是它鏈接的網站並不完全支持它給出的資訊。或許答案本身沒錯,但你硬是找不到證據做湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管實它是對的。這個比例還在上升,去年 10 月是 37%,升級到 Gemini 3 之後反而漲到 56%。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
馬友友的名人堂條目需要進一步在網站內檢索才能獲得
Oumi 的 CEO Manos Koukoumidis 的總結很直接:「即使答案是對的,你怎麼知道它是對的?你怎麼檢查?」
還有一個問題:AI Overview 可以被操縱。
BBC 播客「The Interface」的聯合主持人 Thomas Germain 做了一個實驗。他發布了一篇部落格,標題是「最擅長吃熱狗的科技記者」,描述了一個完全虛構的南達科他州國際熱狗吃賽,聲稱自己獲得了第一名。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
一天後,他在 Google 搜索「最會吃熱狗的科技記者」。Google 的 AI Overview 將他列為第一名,並引用了他在那個虛構比賽中的「成績」。Germain 說:「它把我網站上的東西當成真理一樣吐出來。」
Google 的發言人 Ned Adriance 回應稱,大多數這類例子是「不現實的搜索,人們實際上不會這樣搜」。但問題不在於人們會不會搜「最擅長吃熱狗的記者」,而在於這個機制在任何搜索中都在運作——包括醫療建議、急救資訊、法律問題。
當搜尋引擎變成答案引擎
Google 自己的測試也印證了這個問題。在 Google 對 Gemini 3 的內部評估中,模型單獨運行時的錯誤率是 28%。Google 說,AI Overview 因為結合了搜尋引擎的資訊,比 Gemini 單獨運行更準確。這也不算錯,但「比通用的 AI 更準確」和「足夠準確」之間,還有很長的距離。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
核心矛盾在於,過去的 Google 搜索是一個「目錄」,它告訴你哪裡有資訊,你自己去判斷,費時間但自己看過什麼自己心知肚明。現在的 Google 搜索要做一個「答案機器」,直接告訴你答案是什麼,而且放在最顯眼的位湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管,但這個「答案」的數據來源包括 Facebook 帖子和旅遊部落格,有超過一半的正確回答無法被驗證,而且任何人只要寫一篇部落格就能操縱它的輸出。
Google(包括大部分的 AI 產品)都在每一條 AI Overview 下方加了一行小字:「AI 可能會犯錯,請雙重檢查。」
但當你把一個答案放在搜索結果的最頂部,用最權威的排版呈現,然後在底部用小字說「別全信」,這不像是負責任的設計,更像是免責聲明。
湖南台AI主播被罵上熱門但AI每小時餵5700萬條錯誤資訊沒人管
真正的問題不在於 9%的錯誤率本身。任何資訊系統都有錯誤率,傳統搜索結果里也有大量垃圾網站和誤導性內容。真正的問題在於一個設計決策:Google 把一個不確定的回答包裝成了確定的樣子。
過去,搜尋引擎給你十個鏈接,你知道自己需要判斷。
現在,搜尋引擎給你一個答案,放在最上面,用最乾淨的排版,語氣肯定而完整。它看起來不像「這裡有一些資訊供你參考」,而是「這就是答案」。而人類對「看起來像答案的東西」的默認反應是信任,不是質疑。
Okahu 的 CEO Pratik Verma 的建議是:「永遠不要信任單一來源,總是拿另一個來源對比。」這是好建議,但它默認用戶有能力和意願去做交叉驗證。而 AI Overview 的整個設計邏輯恰恰相反:它要的就是讓你不用再點進去看。
它把答案遞到你面前,然後建議是,別信。
宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新