隨著DALL‧E和Stable Diffusion等AI產圖模型大行其道,加上Shutterstock和Adobe更搶先將這類AI模型集成至自家主力產品線,使網路聊天機器人也有編輯圖片甚至創圖能力,使惡意攻擊者能編修及操縱未授權的合法圖片。故MIT麻省理工學院電腦科學與人工智慧實驗室(CSAIL)開發出能杜絕浮濫風氣的「PhotoGuard」技術。
用浮水印增加有心人竊取圖片或圖片作品的難度與門檻已有很長時間,但拜AI產圖模型流行,黑客可直接用模型非法編修或改造圖片。面對威脅,MIT「PhotoGuard」技術採用「擾動」(perturbation)AI的「編碼器」(encoder)攻擊法,改變選定像素,破壞AI理解圖片的能力。
AI算法模型會以複雜數學表示目標圖像每個像素位置和顏色,而「編碼器」攻擊是引入偽影,阻止AI理解看到的圖片內容。
不僅如此,「PhotoGuard」技術采更先進且運算密集的「擴散」(diffusion)攻擊,讓黑客特殊處理過圖(優化圖片擾動,與黑客鎖定圖類似)誤認成想攻擊的目標圖,為其加上「免疫」防護罩。AI若試圖編輯「免疫」圖,都會套用至「假目標」圖,最終只會產生看起來非常不真實的圖片。
但這技術並非萬無一失,攻擊者可通過增加數字噪聲、剪貼或反轉等,逆向工程受保護的圖。麻省理工學院博士生和論文主要作者Hadi Salman表示,要使保護機制可行,還有許多工作要做,唯有集合模型開發人員、社交媒體和政策制定者眾人之力,才能有效防禦未授權圖片編輯攻擊。
(首圖來源:影片截屏)