
生成式AI使用了不少藝術家的作品作為訓練,引起了藝術群體的不滿。有研究團隊在去年推出名為Nightshade的工具,可以在作品中加入「毒素」,一旦被用作訓練就會污染資料庫,在推出後5天內下載量就多達25萬次。
由芝加哥大學電腦科學研究人員Ben Zhao領導的專業團隊開發的Nightshade工具原理是在像素層級加入額外的數據,不論人類還是AI系統也無法簡單辨別出來,但如果用作訓練AI模型,則可以讓模型的分析能力下降,做出錯誤的判斷。如果加入Nightshade的作品夠多,將可以對AI訓練造成一定的妨礙。

Ben Zhao表示,開發Nightshade的目標是讓藝術家有一個反擊的工具,提升未經許可使用內容做訓練的成本,讓AI開發商選擇向藝術家支付授權費用。團隊在去年也曾經推出名為Glaze的工具,同樣可以加入隱藏的像素避免風格被機器學習算法複製。他們目前正在開發結合Glaze和Nightshade工具,目前仍需更多測試才可推出。
(首圖來源:Unsplash)