用生成式AI幫助安全,是2023年相當火熱的議題,我們看到微軟、Google等多家安全企業,積極打造AI助理幫助安全人員,不過,安全問題不僅於此,還有GitHub Copilot新發展的AI漏洞過濾系統,將能用於幫助開發人員,可在開發階段就及時阻擋不安全程序代碼的寫法,包括寫死憑證、SQL注入與路徑注入等。
對於一般企業、非安全公司而言,我們又可以如何設想生成式AI的應用,幫助企業內部的安全強化呢?
最近2023年底,我們看到有企業公開說明相關應用,特別的是,這家公司就是以GPU聞名全球、因AI晶片再度成為市場焦點的Nvidia。該公司首席安全官David Reber Jr.特別發布專文介紹,闡述3種應用生成式AI加強安全的方式。
儘管Nvidia公司並非安全產業,但他們是從自身企業角度去設想,加上本身對於生成式AI的理解,並實際提出企業可發展與關注的方向,也相當值得借鑑。
David Reber Jr.首先強調的是,安全攻擊速度與複雜性的逐漸增加,已經讓人類分析師無法有效應對,因為數據量過大,無法手動篩選。面對這樣的時局,他指出,當今最具變革性的工具──就是生成式AI。
如何用生成式AI加強安全?
第一種方式,從開發人員開始,首先,要給開發人員一個安全開發的副駕駛。
David Reber Jr指出,每個人都在安全中扮演一個角色,但不是每個人都是安全專家。因此,這個開始是最具戰略性的意義,以指導開發人員撰寫的程序代碼,都遵循安全最佳實踐。而Nvidia本身也正於工作流程中創建這樣安全副駕駛,他們認為,安全助手是將生成式AI應用於網路安全的第一步。
第二,使用生成式人工智慧來幫助分析漏洞,尤其是已知漏洞。畢竟每個程序代碼的背後,可能根植於數十甚至數千種不同的軟體分支和開源項目中。而Nvidia也測試了這個概念,像是讀取公司所使用的軟體,及其支持的功能與API政策,而幫助識別修補的結果,將加快人類分析師的速度,最多可提升4倍。
第三,用LLM填補不斷增長的數據缺口,這裡的情況是指,少有用戶分享數據外泄資訊,所以很難預測攻擊,此時可藉助生成式AI創建合成數據,模擬未曾見過的攻擊模式,或填補訓練數據的空白,讓機器學習系統在實際攻擊發生之前,可以學會如何防禦。
特別的是,Nvidia展示一項實證結果,是改進魚叉式網路釣魚(Spear Phishing)的偵測,在Morpheus應用框架與生成式AI的搭配之下,比起既有解決方案成效更好,可從70%提升至90%。
綜合而言,企業除了看到生成式AI逐漸融入安全產品的趨勢,對於企業自身而言,在內部的安全強化上,是否也想過運用生成式AI來解決一些安全風險問題,無論是打造或採用開發人員適用的安全助手,促進漏洞問題可以更早被解決,以及應對漏洞管理的挑戰,藉助生成式AI之力來幫助識別修補,都將是企業在2024年可以思考的議題,甚至從中衍生出更多樣的應用萌生想法場景,讓我們可以更好應對層出不窮的安全挑戰。
Nvidia用生成式AI找CVE漏洞
對於使用大型語言模型(LLM)引擎於安全,Nvidia展示找出容器中CVE漏洞可利用性的場景,並說明設計架構與運行流程。例如,當我們提問:「這個CVE在我的容器中是否可利用?」事實上,要解答這樣的問題,背後需要知道的資訊很多,在LLM引擎運行之下,經由提示生成器、LLM Clinet到任務生成器,只問一次並不足以得到答案,總共是經過四次執行後,才得到結論。