宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

芝加哥大學趙燕斌:我們做的是讓AI看不見的「藝術」

2025年04月30日 首頁 » 熱門科技

生成式AI的發展呈現出一個有趣的悖論:它能夠完美復現人類已有的智慧成果,卻始終無法跨越訓練數據的邊界實現真正的創新突破。

正是這一特徵讓AI與藝術創作者處在劍拔弩張的關係中。當AI在幾秒鐘內模仿藝術家畢生錘鍊的獨特風格時,一個緊迫的問題浮出水面:如果給全球AI開發者設定一個必須要遵守的一個防護準則會是什麼?

芝加哥大學電腦科學Neubauer教授趙燕斌(Ben Zhao)給出了一個發人深省的觀點:在追求科研突破的同時,更需要深入思考技術可能帶來的實際社會後果,這項責任落在每位科研工作者肩上。

當AI正在經歷"摩爾式"狂奔時,我們比以往任何時候都更應思考,如何確保技術進步不會侵蝕文藝創作這一人類文明的珍貴財富。

這不僅關乎技術的未來,更關乎人類文化傳承的根本。

數據不是「萬能藥」

現在大家都在熱議大模型,關注參數規模和準確率這些硬指標。但說實話,技術不能只停留在"能寫會畫",更重要的是能真正解決實際問題,這才是檢驗AI價值的試金石。

我們普遍看到的是,大模型在處理一些專業問題時,仍存在準確性不足的問題,即常說的「幻覺」現象。這使得人工智慧要真正融入複雜的現實場景,仍面臨諸多挑戰。行業內正嘗試通過引入RAG等技術路徑,不斷提升模型的可靠性和實用性。

儘管如此,業界普遍認為,無論是信息檢索還是問答系統,大模型在多個應用場景中已具備替代人工進行交互的潛力。一些產品在應用大模型後,某些功能確實已經達到80%左右的可用性,這種"相對成功"讓整個行業都非常興奮。

這就使所有資源和關注點都集中在現有大模型架構上。然而,趙燕斌指出,從目前來看,大模型的能力仍然相對有限。尤其是在過去兩年,大家不難發現其實際應用場景並不廣泛,所以短期內大模型能在哪些領域實現突破,並真正替代人類完成部分工作,仍是存有疑問的。

但業界普遍傾向於相信「數據是萬能鑰匙」,只要訓練的數據量足夠大,模型就能持續優化,解決各種問題。無論是企業還是研究機構,似乎都在朝著「更多數據」的方向努力。

但從趙燕斌的研究角度來看,目前大模型在結構設計上本身存在一定的限制,換句話說,應用邊界突破的根源並不只是數據不夠多,而在於模型架構本身的限制。即使不斷地堆疊數據,也無法從根本上解決問題。

未來幾年內,這種依賴現有架構的方式可能會逐漸顯露出瓶頸,也許我們需要退後幾步,跳出當下的框架,從全新的角度重新思考模型的設計邏輯,尋找真正能夠突破現有局限的新架構。

「以現在的節奏,我們可能沒有辦法把這些錯誤解決。」趙燕斌說。

當然,沿著大模型的發展曲線,產業內也湧現出一些創新,例如DeepSeek芝加哥大學趙燕斌:我們做的是讓AI看不見的「藝術」就被視為是一個重要拐點,雖然它沒有根本性的改變架構本身,但是它提出了一個創造性的方法。

這也讓之前大幅投入在硬體上的企業開始重新思考自己的戰略方向。今年1月8日,微軟亞洲研究院在arXiv上發表論文,提出一種創新方法rStar-Math,顯著提升了小語言模型的數學推理能力,挑戰了"參數越大性能越好"的傳統認知,為GPU資源有限的機構提供了新思路,實現「花小錢辦大事」。

在新技術出現時,宣傳與實際落地之間存在落差是一個共性問題。「趙燕斌認為,現在企業真正將生成式AI應用在哪些場景,有多大的效率,目前還不能準確評估,只有當行業積累足夠多的實踐經驗後,我們才能對這些技術的社會價值做出客觀判斷。

我們更多時候看新技術,往往更關注積極的一面,但生成式AI是一把雙刃劍的事實也毋庸置疑,它帶來的風險已不是停留在理論假設階段,而是正在真實發生的現實。

給創意加一把「鎖」

2016年,當AlphaGo以4:1的比分戰勝圍棋冠軍李世石時,恰逢達特茅斯會議首次提出"人工智慧"概念,過去整整一個甲子。彼時的趙燕斌就已經開始專注於解決機器學習和移動系統中的安全和隱私問題。

當時的他意識到,AI技術將對社會產生最深遠的影響,其已在多個關鍵領域快速落地,無論是自動駕駛,還是醫療影像,這些突破性進展都令人振奮。

「正因如此,我們最初的研究重點就是如何保護這些有益的AI系統。」

在生成式AI興起後,趙燕斌開始轉向對抗性機器學習(Adversarial Machine Learning)的研究。由於AI模仿人類創作的能力突飛猛進,他帶領團隊開發出保護人類創意者免受生成式AI模型潛在危害的工具,這正是為了應對生成式AI技術逐漸成熟,但倫理規範尚待完善的發展階段。

「這是一個自然的改變。」在趙燕斌看來,人工智慧獨特的算法機制展現了有意思的一面,但這些精妙的計算方式恰恰需要從安全角度被重新審視。

2013至2022年間,以分類任務為主的傳統AI系統,在功能邊界和局限性上相對明確,人們對它的表現有著清晰的預期。然而,自2022年以來,生成式AI展現出完全不同的特性,從文本分析,到輔助完成作業,對個人產生了重大影響,正是這種普適性也使其更具有挑戰性。

所以趙燕斌的科研方向才做出了這樣的轉變,以往的研究只需從單一維度出發,但如今,AI技術的影響已變得高度複雜化,需要同時考慮效率提升等積極影響,以及可能產生的負面效應。

因為科研的結果很大程度會影響未來社會發展,這就要求研究者建立更全面的視角。以網際網路為例,當時的主流觀念認為技術創新本身就是好的,很少考慮其潛在的負面影響。然而,生成式AI的發展已經展現出完全不同的特徵。

我們已經可以清晰地觀察到,就業市場正在發生結構性變化,年輕一代藝術專業學生開始轉型。作為一個從業數十年的電腦教授,趙燕斌幾十年來第一次深刻感受到技術對跨學科才來的深刻的變化。

2022年夏天,一些藝術家主動聯繫了趙燕斌的團隊,他們希望了解現有的科研成果,是否可以保護他們的創作不被大模型濫用。那時團隊對藝術領域並沒有太多的認知,對這一問題也感到意外,但經過和藝術家的深入交流,研究團隊也意識到生成式AI對創作者帶來的挑戰遠比想像的複雜。

為了解決這些現實問題,趙燕斌的團隊開始利用對抗性機器學習針對藝術家群體的問題進行研究。對抗性機器學習是機器學習領域的一個重要分支,專注於研究如何讓機器學習模型在對抗性攻擊下保持魯棒性。

而現在團隊嘗試利用這一機制,通過對輸入數據進行微小而有針對性的修改,從而使模型產生錯誤的預測或分類結果,達到「隱身保護」的效果。這不僅是一次技術路徑的跨界嘗試,也代表在技術與倫理的平衡中找到一種新的可能性。

對抗的藝術「隱形」

如今藝術家們正面臨兩難的困境,作品需要放在網上被更多人看到,才可能產生收入,但同時更多的曝光,可能帶來的就是作品被拿來用於AI訓練。這種行為實質上剝奪了藝術家的創作價值和經濟來源,甚至可能徹底摧毀其職業生涯。

趙燕斌團隊開發的工具正是為了解決這個核心矛盾:如何在保持必要網路曝光的同時,有效保護藝術作品不被濫用,讓創作者能夠安心地在數字時代繼續創作和發展。

在2020年,趙燕斌的團隊就推出過一款圖像遮蔽工具Fawkes,用來防止第三方根據網上的公開照片構建未經授權的面部識別模型。

在減輕AI危害的工具的研究上,趙燕斌的團隊已經有了豐富的經驗,並且通過與藝術家群體的深入交流,2024年又開發了Nightshade處理視覺藝術作品,使作品在未經同意就被用於AI模型訓練時,能對模型產生干擾;以及Glaze,用來保護藝術家免受風格模仿的影響。

這些工具通過計算在畫作上做出一些改變,經過特殊處理的作品,人肉眼並不會發覺,保持了其藝術性,但AI模型在分析這些經過處理的畫作時,會受到干擾而無法準確識別。

Nightshade就好比「在你的午餐中加入辣椒醬,這樣它就不會從辦公室里的冰箱被偷走」。 Nightshade瞄準文本提示之間的關聯,巧妙地改變圖像像素,誘使大模型解讀出與人類觀看者完全不同的圖像。大模型會錯誤地對「陰影」圖像的特徵進行分類,如果使用足夠多的「中毒」數據進行訓練,它們就會開始生成與相應提示完全無關的圖像。

只需不到100個「中毒」樣本就能破壞穩定擴散提示。未經修改的蒙娜麗莎圖像和Nightshade處理過的版本對人類來說幾乎完全相同,但大模型不會將「中毒」樣本解讀為女性肖像,而是會將其視為「一隻穿著長袍的貓」。

芝加哥大學趙燕斌:我們做的是讓AI看不見的「藝術」

從左至右:蒙娜麗莎;Nightshade處理版蒙娜麗莎;AI「看到」的蒙娜麗莎的陰影版本

「我們利用了人類和AI理解圖像的根本差異。」趙燕斌說,人們欣賞畫作依靠整體審美,而AI依賴數據特徵分析。我們通過針對性調整畫作的數字特徵,在不改變視覺效果的前提下,使AI模型難以獲取有效信息。

這種方法讓藝術家可以安全地在網上展示作品,既保持曝光度,又降低被AI盜用的風險。自2024年1月發布以來,Nightshade的下載量已超過250萬次,Glaze自2023年3月發布以來下載量達到760萬次。

與Nightshade類似,Glaze工具可以扭曲大模型的「觀看」和判斷藝術風格的方式,防止其模仿藝術家的獨特作品。人類可能會看到一幅「釉面」逼真的炭筆肖像,但大模型會將其視為抽象畫,然後在被要求繪製精美炭筆肖像時,生成雜亂無章的抽象畫。

芝加哥大學趙燕斌:我們做的是讓AI看不見的「藝術」

從左至右:Karla Ortiz的原創作品;同一作品採用「低」隱身設置後的效果;同一作品採用「高」隱身設置後的效果

芝加哥大學趙燕斌:我們做的是讓AI看不見的「藝術」

從左至右:Karla Ortiz的原創作品;AI模型創作的抄襲作品;隱藏原始藝術作品後AI生成的圖像

這一研究成果讓趙燕斌非常有價值感,因為這在保護人類創造力這一核心價值上具有重要意義。他說,創造力是人類區別於其他生物的本質特徵,而藝術家、作家、音樂家等創意工作者正是這種創造力的重要代表。

保護這些創意人才,就是在守護人類文明的源泉。即便這項技術只能幫助少數創作者維護權益,就已經很有價值。若能擴大保護範圍,其社會影響力將更為深遠,因為這關係到人類文化生態的健康發展。

創意是AI發展的「原力」

對於創意產業,生成式AI的到來已經有了非常多的負面影響。只需幾秒鐘,生成式AI就能生成一本看似專業的書籍,或是搭建一個內容豐富的網站。但這些作品往往只是文字的堆砌,缺乏真正的思想和價值。

如今,在亞馬遜等平台上,已經湧現出大量由AI改寫而成的"新書",創作者只需對現有作品稍作修改,就能宣稱是自己的原創。更令人擔憂的是,這些AI生成的內容正充斥在網路中,讓真實有價值的信息變得越來越難被「看見」。

那些花費一輩子打磨個人風格的畫家,可能在一夜之間自己的藝術特色就被AI完美複製,而且這些被竊取的藝術風格,任何人都可以隨意使用。

年輕的藝術學生們看到這樣的情況,開始擔心如果繼續學習,未來是否能保證生機。藝術院校也因此受到嚴重衝擊,40%-50%的學生看不到未來,轉而學習其他技能,這導致一些擁有百年歷史的藝術學院因此關閉。

生成式AI已經打亂了他們的未來,他們甚至懷疑:在AI時代,投入畢生精力追求藝術夢想是否還有意義?

趙燕斌的團隊與全球的藝術家建立起交流渠道,幾乎每天都會展開探討。最初,趙燕斌也沒有想到,他們的研究能產生這麼大的關注和影響。

大部分藝術家的需求其實只有一點,就是不希望人工智慧干擾他們的正常生活,他們只希望繼續創造作品,全情的投入在創作中。

「在人工智慧產出的作品越來越逼近人類作品時,真人的作品就更具價值。」趙燕斌認為,一張作品不僅需要好看,還需要有個人的意義和情感深埋其中,人工智慧只能做到畫面的顏色、結構等看起來是不是有美感。

在中國,我也接觸過一些AI藝術家,他們通過AI生成出自己的創意,並對生成的內容進行二次創作,最終產出作品。但是他們用AI輔助創作的作品也正在被拿來抄襲,這是一件非常有趣且值得深思的現象。

生成式AI得模仿能力非常強,如果大家都互相模仿,未來我們看到的所有內容可能都是「千篇一律」的風格和感覺,從創新角度來說是災難性的。

大模型最需要的是能有更多新鮮的信息提供給它進行訓練,如果這些創意者都不再產出新內容,那大模型未來的創意是否會停滯不前?

當然,有人認為「風格模仿」也是藝術發展的一部分。在趙燕斌看來,這裡存在一個關鍵差異:傳統藝術學習與AI模仿的本質不同。人類學習另一位畫家的風格是一個緩慢的漸進過程。當藝術家在街頭看到一幅引人入勝的畫作時,可能會從中獲得靈感和啟發,但絕不可能在五分鐘內就完全掌握其風格精髓,更不用說批量產出上成千上萬幅類似作品。

藝術家們互相學習借鑑,但絕不會純粹為了模仿而模仿,更不會刻意與原作藝術家形成直接競爭關係。

給科研工作者的「啟示」

趙燕斌教授因在AI防護工具領域的貢獻而廣為人知,他是國際電腦學會(ACM)會士,並獲得了美國國家科學基金會早期職業生涯發展獎(NSF CAREER Award)、網際網路防禦獎和《麻省理工科技評論》35歲以下科技創新35人獎(MIT Technology Review’s TR-35 Award)等多個榮譽。

近期趙燕斌入選了2024年度全球人工智慧百強榜單(TIME100 AI),他是其中少數入選的學術研究者。"這份榜單中企業界人士占絕大多數,來自學術界的教授僅有四五位。"趙燕斌表示,我們的基礎研究能夠產生如此廣泛的實際影響,確實令人欣慰。

「入選吸引了一些媒體對我們的研究成果進行傳播報道,對於這一研究方向帶來了積極的影響。」更值得一提的是,趙燕斌的團隊有機會與更有影響力的機構和個人建立合作關係。

尤其近期,趙燕斌與美國多個州政府展開交流,討論人工智慧技術的發展現狀及其潛在風險。作為科研人員,他深刻認識到,除了通過技術手段直接幫助藝術家外,我們還需要為政策制定者提供專業的見解。

如今,人工智慧已成為全球科研界最熱門的領域之一,無論是中國、歐洲還是美國,投入該領域的研究人員數量都遠超其他學科。這種迅猛的發展態勢也帶來了隱憂,許多潛在的社會影響常常在技術推進的過程中被忽視。

「正因如此,我們需要建立更加完善的科研體系。」趙燕斌說,只有當技術的發展能夠確保為社會帶來積極影響,同時有效規避負面效應時,才能實現真正健康可持續的AI進步。

趙燕斌的團隊目前正從多個維度推進人工智慧安全研究。一方面,分析AI模型在各種條件下的行為特徵,包括受到攻擊時的反應。另一方面,致力於開發保護機制,前瞻性地思考未來可能出現的挑戰,例如在藝術創作領域如何區分人類作品與AI生成內容。

人工智慧安全研究其實充滿不確定性,很難準確預測每一項技術可能帶來的所有後果。面對眾多亟待解決的問題,趙燕斌的團隊採取優先處理最具緊迫性的挑戰,在實踐中檢驗解決方案的有效性,並持續優化研究方向。

未來人工智慧的發展,趙燕斌覺得有一點必須值得注意,電腦科學長期以來存在一種慣性思維:技術可行性是唯一的研究準則,為科研而科研。然而,在人工智慧領域,這種思維模式已經不再適用,倫理考量和潛在影響同樣重要。

他呼籲,年輕一代的AI學子尤其需要拓寬視野,在專注技術突破的同時,應當學習人文歷史,培養社會洞察力。這種跨學科的素養能幫助他們判斷:在何種情況下技術推進確實有益,何時又需要審慎考量潛在風險。

歸根結底,衡量科研價值的核心標準不應僅是論文數量或獎項榮譽,而是這項研究最終能為社會帶來什麼樣的實際影響。

這種責任意識的覺醒,或許是AI時代賦予科研工作者最重要的啟示。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新