宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

2026年03月04日 首頁 » 熱門科技

「我懷念那些網際網路上圖片總是準確的時代……等等,好像從來沒有過這樣的時期。」

最近伊朗衝突的消息開始在各大資訊流里瘋狂刷屏,爆炸、防空警報,各種衝擊力極強的畫面,但這裡面讓無數人按贊、轉發的「戰地紀實」,竟然有一大半都是假的。

上下滑動查看更多內容|瀏覽量都超過百萬次,但是最後都被證實是 AI 生成的影片

在 X 上多個認證的自媒體,發布了數條由 AI 生成的假影片;最後卻在補充資訊都提到,影片內有非常明顯的 AI 跡象,例如煙霧的效果,還有變形的水面和屋頂的太陽能電池板。

這些影片有的來自 9 年前毫不相干的舊衝突,有的是被 AI 操縱的合成幻影。最為荒誕的還是,美國德州州長 Greg Abbott 也轉發了一段電子遊戲影片,隨後迅速將其刪除。

這條在海外社交媒體上被廣泛引用的所謂「第一手衝突錄像」,竟然是直接截取自一款軍事題材電子遊戲。

不僅 AI 當作新聞,把遊戲畫面當新聞看,十分令人感慨。在這個 AI 生圖生影片狂飆突進的 2026 年,「有圖有真相」這句古老的網際網路格言,已經淪為一句徹頭徹尾的笑話。

而這些百萬次轉發的內容,也都被證實是個超低級 AI 縫合怪。

除了影片的泛濫,引起大家關注的還有一張在 X 上瘋傳的衛星圖。畢竟,誰會花幾個億發顆衛星,就為了在網上 P 張圖騙我?

圖片顯示,位於卡達的一個美軍雷達系統,在遭受伊朗無人機打擊後化為廢墟。連伊朗的主流媒體《德黑蘭時報》官方賬號都迫不及待地轉發了這張「戰果圖」。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
圖片來源:X@TehranTimes79

短短 48 小時內,這條帖子的閱讀量直接突破了 100 萬。但很快,開源情報專家們就把這張圖的底褲扒光了。

經過比對,這根本不是什麼卡達的雷達基地,而是巴林的一個區域。更荒謬的是,這圖是用一張一年前的老照片強行用 AI 「捏」出來的。

怎麼看出來的?有網友發現這張圖片細看非常拙劣,雖然建築看起來被炸毀了,但周圍停放的車輛位置竟然和一年前一模一樣;更離譜的是,所謂「爆炸後」的光照陰影角度,跟一年前那張晴朗日子的圖分毫不差。

打敗 AI 魔法,還是這樸素的五步

儘管目前大多數的 AI 生成內容,都被強制要求帶上顯示水印或者數字水印,但這套方案還是容易被繞過。

就拿 Nano Banana 生成的圖片來說,官方提示會加入 Gemini 的 Logo 水印,和無法被肉眼察覺的 Synth ID 數字水印,但在社交媒體上,經過多輪的手動截圖裁剪壓縮等操作,Gemini 就很難再識別到之前嵌入的水印。

Update: I figured out how to completely bypass Nano Banana Pro's SynthID watermark, and here's how you can try it for free:
by u/LiteratureAcademic34 in comfyui
在 reddit 上已經有相關繞過 Synth ID 水印的方法

1、抓細節,看不對勁的地方

有人問,既然最後都發現那些 AI 影片和圖片破綻這麼明顯,為什麼大家一開始沒看出來?

理由其實很簡單,當我們看一張 AI 生成的人臉時,我們的大腦會本能地尋找違和感,眼睛、皮膚紋理、耳朵的形狀,這是我們幾百萬年進化出來的生物本能。

但是,當俯視一張從幾百公里高空拍下來的建築、道路和地形時,這種本能失效了。因為沒有人天生知道,在特定解析度的傳感器下,一座炸毀的雷達站「應該」長什麼樣。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

沒有太多可以參考的資訊,AI 捏造的這些陌生內容,自然而然地就容易變成我們普通人眼裡的客觀事實。

在算法已經能完美模擬光影和肌膚紋理的今天,尋找破綻的邏輯已經變了。除了要打破這種需要依賴參考系的想法,找各種技術上的 Bug,更多地是去尋找現實的邏輯斷層。

例如,背景里不合時宜的建築風格、人物違背常理的微小動作等。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
未經查證的照片

在前段時間馬杜羅被捕後,社交媒體上也瘋傳了幾張他的「囚禁照」,外媒的視覺調查團隊迅速發現,這些圖片存在可疑之處,飛機窗戶的設計與現實機型不符、馬杜羅衣服在兩張照片裡不同。

雖然沒有直接證據證明它們是假的,但這些疑點,也讓媒體決定不刊登這些照片。

2、誰發的資訊,比資訊本身更重要

一張圖片背後,發布者的身份往往比內容本身更能說明問題。

這張所謂的哈梅內伊遇害的照片,也在社交媒體上獲得了 550 萬次的瀏覽,但這個賬號的主人,在自己的網頁關於部分寫著,「SilverTrade.com 致力於提供貴金屬行業最準確、最具洞察力和最及時的報道。」

還有馬杜羅那張照片,即便是在 Truth Social 上發布,但多個新聞機構依然對圖片的真實性心存疑慮。

最後,大多數的媒體是選擇了以截圖形式引用了整條帖子,而非單獨呈現這張照片,很有一種「不信任但有新聞價值」的處理方式。

3、追蹤數字足跡,歷史記錄不會說謊

AI 製造的假新聞,最常見的手法是「挪用」舊素材。通過 Google、TinEye 等搜尋引擎的反向圖片搜索,甚至查看圖片元數據(比如拍攝時間、設備型號),就能快速判斷內容是否造假。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
https://tineye.com/
這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

例如這張經典的篡改圖片,只是在一張已有照片的前提下,通過傳統的複製移動手段,就輕鬆騙過了一眾媒體。

4、從時間和地點,驗證關鍵背景資訊

假設我們看到一段聲稱拍攝於某地的影片,我們可以通過 Google Maps 或衛星圖像檢查畫面是否與該地點一致。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
Google Earth 會提供完整的歷史圖像和街景

還可以用 SunCalc,通過畫面里的陰影方向,推算出拍攝的大概時間。如果聲稱是昨晚拍的,但陰影顯示是正午,基本可以判定造假。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
在攝影圈,SunCalc 也是一個精準計算太陽和月亮方位,找到拍攝黃金時刻的地理網站

5、善用深度研究,讓 AI 對抗 AI

現在幾乎所有的 AI 工具都有自己的深度研究功能,像是之前我們總結的春節 AI 大戰內容,讓 ChatGPT 的深度研究,先跑上半個小時,為我們總結了這些資訊。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

深度研究的好處在於,AI 生成的每一句話都附有來源鏈接,你可以直接看到資訊出自哪裡、屬於什麼性質。如果我們對數據精確度要求較高,還可以在提示詞裡加上:「對每一個結論,給出一個可信度判斷。」

但要注意一點:深度研究可能靠譜,普通問答不太行。

直接問 AI「這條新聞是真的嗎」,它有時候會把社交媒體上某人隨口發的推測,和正規報道混為一談,給我們一個「看起來有理有據」的錯誤答案。深度研究至少讓你能看到原始資訊源,自己判斷。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
這兩張圖,你能分出哪張是真實的嗎

例如,當我們把這兩張圖片直接丟給 AI,問「這張圖片是由 AI 生成的嗎?」

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

Gemini 說這兩張圖都極有可能是基於同一張原圖,進行了後期圖像處理或 AI 換色生成的產物。而 ChatGPT 和豆包告訴我,那張紅色的圖片更大概率是 AI 生成的。

專門的圖片篡改檢測工具現在也有很多,有網友前幾天還專門測試了一波市面上的十多款 AI 內容檢測工具(包括 hivedetect.ai、aiornot.com、copyleaks.com、以及部分通用 AI 工具),結果超過 1000 次的測試顯示,

魔法打敗不了魔法,用 AI 檢測 AI 是一場註定破產的幻想。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
圖片來源:NYT 文章(These Tools Say They Can Spot A.I. Fakes. Do They Really Work? 這些工具聲稱可以識別人工智慧造假。它們真的有效嗎?)

AI 檢測工具可以作為參考,它能給我們一個方向,但無法直接做判斷。

Adobe 在 PS 25 周年的時候,還推出過一個圖片真假小測驗的網站,感興趣的朋友可以去看看,當時的技術只能是純 PS,就已經能做到有些圖片難以辨別,更不用說現在強大的 AI。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當
你能得多少分?分辨圖片是 PS 還是真實的
https://landing.adobe.com/en/na/products/creative-cloud/69308-real-or-photoshop/index.html

 

「讓子彈飛一會兒」

面對最近各種 AI 假圖片、假新聞的泛濫,社交平台也開始了行動。

從今天起,X 平台上的創作者如果上傳 AI 生成的相關主題影片卻未標註「這是 AI 製作」的,將被暫停 90 天的「創作者收入共享計劃」。如果再次違規,永遠無法從平台賺到廣告分成。

X 的平台分成向來可觀,不少 AI 自媒體都有在 X 同步更新;年初 X 平台還更新內容激勵計劃,以首頁出現的次數來對內容進行收入劃分,同時鼓勵長文的創作。

X 產品負責人 Nikita Bier 發文稱修改創作者收益分成

這條政策一出,X 上的創作者和網友們都炸開了鍋。有些人支持,「總算要管管了!」但也有人質疑,「為什麼只針對衝突影片?其他領域的假內容不一樣造成各種危害嗎?」

我想即便這些措施涵蓋了各個領域的假消息,實際的成效恐怕也並不樂觀。畢竟,用戶可以輕鬆地使用其他賬戶重新發布,而平台的內容審核,遠遠趕不上假圖傳播的速度。

在 The Verge 採訪虛假新聞專家的文章裡面提到,「普通人必須清醒地認識到,當前的數字環境,天然就是向操縱和欺騙傾斜的。」

現在看來更大的問題還是回到了,我們對 AI 偽造的警惕性仍然不足。但作為一個吃瓜群眾,如果要自己對每一條新聞都要去做事實核查也太麻煩了。

這些刷屏的「戰地實況」都是 AI 生成的?5 招讓你避免上當

保持耐心或許是更簡單的方法,姜文電影裡那句「讓子彈飛一會兒」,會是我們在算法操縱下,最清醒的一種特立獨行。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新