【黑帽亞洲安全大會】AI安全初創公司RunSybil的CEO、同時也是OpenAI首位安全招聘員工的Ari Herbert-Voss在今日於新加坡舉辦的黑帽亞洲安全大會上表示,開源模型在漏洞發現能力上完全可以媲美Anthropic的Mythos模型。
Herbert-Voss在演講中指出,Mythos在發現兩類漏洞方面表現突出:一類是描述清晰、易於驗證的"淺層"漏洞,另一類則是更為複雜的安全漏洞。
他將這一現象歸因於"超線性擴展"效應:研究人員此前普遍認為大語言模型的能力會隨資源投入線性增長,但最新證據表明,若將訓練數據量、算力和訓練時間均提升一倍,模型的實際能力可達到原來的四倍。Herbert-Voss還暗示,超線性擴展或許能帶來更高的能力倍增效應,但礙於保密協議,他無法透露更多細節。
目前,Anthropic以防止濫用為由,對Mythos的訪問權限實施了嚴格管控。但Herbert-Voss認為,無論是攻擊方還是防禦方,都可以通過構建"腳手架"框架——即將多個開源模型協同運行——來達到與Mythos相當的效果。這種多模型組合的方式還能增強縱深防禦能力,因為不同模型往往能夠捕捉到不同類型的缺陷,有效彌補單一模型的盲區。
成本因素同樣不容忽視。Mythos的構建和運行成本極為高昂,且可能永遠不會對外公開,這使得開源替代方案對眾多機構而言不僅可行,甚至是必要之選。
Herbert-Voss強調,在編排多個開源模型以達到Mythos級別的性能、以及評估AI生成的漏洞報告方面,人類專家的介入依然不可或缺。
他還提到,模糊測試(Fuzzing)這一通過向軟體注入隨機或近隨機數據來觸發漏洞的測試技術,本身就會產生大量告警,反而給人工處理帶來額外負擔。AI漏洞挖掘工具目前已經出現了同樣的問題,他預計這一狀況短期內難以改變。
因此,Herbert-Voss認為,資訊安全從業者在可預見的未來將持續面臨大量工作。同時,使用AI的經濟驅動力——畢竟需要有人使用這些服務來支撐背後龐大的GPU和數據中心投入——將成為推動安全團隊擁抱AI的強制性因素,並最終提升其主動防禦和安全防護能力。
Q&A
Q1:什麼是"超線性擴展"?它對大語言模型漏洞發現有何影響?
A:超線性擴展是指大語言模型的能力增長並非與資源投入成線性比例,而是呈現出更高的倍增效應。據Herbert-Voss介紹,若將訓練數據量、算力和訓練時間均提升一倍,模型的實際能力可達到原來的四倍,而非兩倍。這意味著經過充分訓練的大語言模型在漏洞發現上能展現出遠超預期的強大能力,這也是Mythos等模型表現出色的重要原因之一。
Q2:開源模型如何實現與Mythos相當的漏洞挖掘效果?
A:根據Herbert-Voss的介紹,關鍵在於構建"腳手架"框架,將多個開源模型協同運行。不同的開源模型往往能夠捕捉到不同類型的安全缺陷,多模型組合使用可以有效彌補單一模型的盲區,從而在整體上達到甚至接近Mythos的漏洞發現水平。此外,這種方式還能增強縱深防禦能力,同時在成本上遠低於使用Mythos。
Q3:AI漏洞挖掘工具會不會完全取代資訊安全從業者?
A:短期內不會。Herbert-Voss明確表示,人類專家在兩個環節中仍不可替代:一是編排多個AI模型協同工作以達到理想效果;二是對AI生成的漏洞報告進行評估與篩選。此外,AI工具與模糊測試類似,會產生大量告警,反而需要人工進行甄別處理,因此資訊安全從業者在可預見的未來仍將有大量工作需要完成。






