很多朋友應該都在評論帖子或者社交媒體上見過這樣的言論:「根本就沒必要怕生成式AI,Photoshop我們不是都用了35年了嗎?」
確實有無數種理由值得我們對AI圖像編輯和生成工具造成的虛假資訊傳播感到擔心,特別是自己可能怎樣被這種盲目相信或者排斥所操縱。這當然不是好事,但已經在很大程度上成為了現實。但這裡我們就提綱挈領,專挑最有份量的觀點分析並加以駁斥,免得篇幅太長分散了我們討論的專注重點。
觀點:「生成式AI的圖像處理跟Photoshop是一回事」
如果缺乏在Adobe Photoshop等應用程序中手動處理圖像的經驗,你其實很容易輕信這樣的說法。但我得提醒你,這是種過於簡單粗暴的類比。這裡假設有些卑鄙的傢伙想要構陷某人,讓對方看起來好像是在濫用違禁藥品,那他們在Photoshop時代至少需要先做到以下幾點:
• 購置(可能很昂貴的)桌面版本軟體。沒錯,移動設備上也有圖像編輯應用,但它們大多只能完成磨皮和色彩調節等小功能,並不適合做創造性的重度編輯。因此對於這項工作,我們至少需要一台電腦——而這本身就是筆專項投入。另外雖然某些桌面圖像處理應用程序免費開放(比如Gimp和Photopea等),但大多數專業級工具都要收費。作為最受歡迎的此類軟體之一,Adobe的Creative Cloud僅提供定期訂閱(其中單Photoshop每年就需要263.88美元)而且取消操作非常繁瑣。
• 找到合適的吸毒用具和圖片。哪怕手頭已經有素材,也不能隨便把舊照片放進去就指望著搞出一幅足夠以假亂真的新圖像。我們必須考慮這些用具的光照、角度,畢竟如果把充滿違和感的物體直接塞進另一張照片,結果只能是「五毛特效」、徒增笑耳。
• 了解並使用各種複雜的編輯工具。要想插入新物體,首先需要把它們從所處的背景中剪切出來,然後無縫融入到新環境當中。這可能涉及調整色彩平衡、色調和曝光度,進行邊緣平滑或者添加新的陰影或者反射。這還僅僅是讓結果看起來說得過去,更加自然的效果需要大量時間投入和經驗積累。
Photoshop中新增的AI工具確實能夠大大簡化這個過程,比如自動選取對象並去除背景。但哪怕是使用這些功能,處理一張圖片仍然需要耗費大量時間和精力。相比之下,下面看看The Verge編輯Chris Welch使用谷歌Pixel 9上的「Reimagine」功能實現相同效果所需要的步驟:
• 在智慧型手機上啟動Google Photos應用。點擊一個區域,要求程序添加一個「裝滿紅色液體的醫用注射器」、一些「碎粉筆末堆成的細線」,再加上酒瓶和橡膠管。

這就完成了。三星最新款手機也支持類似的簡單操作流程。這不僅完全不涉及任何技術要求和時間投入,而且效果相當驚人。谷歌的工具還特別擅長把憑空生成的素材添加到圖像當中:燈光、陰影、不透明度甚至是對焦位置都會被考慮在內。Photoshop本身現在也內置有AI圖像生成器,可得到的結果往往還不及谷歌這款免費Android應用生成效果的一半。
圖像處理技術及相關造假方法已經存在了將近200年——歷史幾乎跟攝影本身一樣漫長。然而,正是由於篡改圖像內容需要極高的技能水平和大量時間投入,所以我們在看到照片時才會默認採信、而非表示質疑。在攝影史的大部分時間裡,篡改都是極其罕見的行為。但隨著AI技術在智慧型手機上的普及,更低的操作門檻和龐大的覆蓋範圍使得任何笨蛋都能夠以我們前所未見的頻率和規模大量製作偽造圖像,由此引發的危機相信每個人都能感受得到,也應當對此感到擔憂。
觀點:「這只是種新常態,人們總會習慣」
少數人有能力判斷圖像是否可信,並不代表每個人都能迅速且準確地加以識別。不是每個人都願意長時間泡在技術論壇上(這裡向長期關注技術動態的朋友們致敬),所以對於那些不知道該依靠哪些特徵來識別真偽的朋友們來說,其實我們眼中非常典型的AI偽造痕跡在他們看來並沒有那麼明顯。更別說隨著技術進步,這種痕跡已經越來越輕微。AI生成自然順暢圖像的能力正在迅速提升,如今的成果已經很少出現扭曲的手指或者那種一眼假的邏輯錯誤。
沒錯,我們偶爾還是能輕易從眼前流過的內容中快速發現deepfake深度偽造的畫面,但短短兩年之間,這種虛假圖像的產出規模已經發生了巨大變化。如今製作這些東西非常容易,甚至可以說是無處不在。我們正快速走向一個值得高度警惕的新時代——我們看到的每一張圖片,其背後可能都對應著難以察覺的引導和陰謀,卻令觀看者毫不自知。
當一切畫面都可能系偽造時,證明真實性將變得極其困難。這種懷疑論很容易被利用,最終為前總統川普這樣的人物所利用。他們到處散布虛假指控,比如說哈里斯篡改了支持集會上人群的數量。
觀點:「Photoshop同樣是一項意義重大、降低操作門檻的技術——但我們仍然實現了平穩過渡」
的確如此:哪怕AI技術比Photoshop要易用得多,也不能否認這款圖像編輯軟體代表的技術革命,同樣讓人們開始面對一個全新的造假時代。只是很多人似乎沒有意識到,Photoshop和其他前AI時代出現的編輯工具確實造成了社會問題,其中很多問題一直持續至今並且造成了重大危害。雜誌和廣告牌上的照片都可以隨意篡改,導致男性和女性審美受到了引導和歪曲,其中女性受到的影響尤其嚴重。例如2003年,當時27歲的凱特·溫絲蕾就在登上GQ雜誌封面時被刻意修瘦了。來自這家英國雜誌的編輯Dylan Jones則辯解稱:「我們對其他封面明星同樣會大修特修,她並不是個例。」
早期博客Jezebel曾經因發布未經修飾的名人照片而引發過重大醜聞,而且類似的過度修圖行為至今仍普遍存在,只是很多朋友不關注也沒聽說過。法國甚至通過了一項法律,要求明確披露圖片經過處理。只是隨著Facetune等更易使用的工具在社交媒體平台上出現,這種畫面美化正變得越來越難以察覺。

2020年的一項研究發現,71%的Instagram用戶會在發布自拍照前使用Facetune進行編輯。另外一項研究發現,無論是否聲明照片經過數字編輯,媒體刊登的圖片都會刻意讓成年和未成年女性的體態表現得更纖細。社交媒體的引導,直接塑造了現實生活中人們對於身材的焦慮和對整形手術的依賴,部分極端者甚至要求整形醫師為其實現物理層面根本不可能達成的效果。同時男性也未能倖免——社交媒體對於男孩及其自我形象的認知同樣產生了真實存在且可以量化的影響。
除了灌輸不切實際的審美標準之外,擺拍照片與畫面編輯還有可能誤導觀眾,削弱人們對於新聞攝影的信任,甚至被惡意利用以左右民意。比如在1994年的一張照片插圖中,引起全球關注的殺妻案主角OJ Simpson的面部就被調得實際上更黑。
生成式AI的圖像編輯功能不僅進一步降低了門檻、加劇了此類問題,更重要的是它的誤導性甚至可能沒有明確方向。AI工具及相關應用常常被用於在未徵得女性當事人同意之下,擴大胸部尺寸並為她們換上暴露的著裝。於是不單是觀眾不敢相信自己看到的畫面是否真實,就連攝影師也不敢相信自己手中的工具會不會悄悄「夾帶私貨」。
觀點:「相信會有法律來保護我們」
首先需要明確一點,制定好的言論治理法其實是件極其困難的事情。立法者必須想辦法對人們製作和發布經過編輯圖像的行為進行劃分,將有害用途跟大多數人認為有價值的用途準確區分開來——比如藝術二創、惡搞和模仿。立法者和監管者還必須遵循現有關於言論自由和資訊獲取方面的法律條款,包括美國的《憲法第一修正案》。
全球各科技巨頭也在全速進軍AI時代,而且似乎根本無暇考慮如何處理監管方面的事宜。全球各國政府則爭先恐後出台法令,想要控制那些濫用生成式AI技術的傢伙(包括開發此類技術的公司),可對真實照片與篡改照片進行識別的系統卻發展速度緩慢、效果有限而且數量相當有限。
與此同時,已經有人在利用簡單的AI工具操縱選民意志、利用數字技術生成兒童色情畫面,甚至對Taylor Swift等名人進行恐怖的深度偽造。這些都是去年業已發生的實情,相信後續這項技術只會不斷改進。
在最理想的情況下,我們必須搶在免費、防呆工具能夠在幾秒鐘之內就在畫面中添加極其逼真的炸彈、撞車或者其他令人反感的內容之前,就設置起足夠強大的護欄。但這事真能做到嗎?樂觀和故意迴避解決不了實際問題,我們甚至還不清楚到底該如何解決、或者說這個問題到底能不能得到解決。充滿變數的時代下,一切皆在未定之天。