宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

Hart Rossman談生成式AI時代「深度防禦」策略該怎麼做

2025年06月25日 首頁 » 熱門科技

從去年的銀色亮片夾克,到今年的彩色背帶褲,亞馬遜雲科技安全副總裁Hart Rossman的穿搭,在人群中依舊搶眼。

作為亞馬遜雲科技的第一位安全顧問,Hart Rossman已在公司工作了13年。今年,他特意以這身造型亮相re:Inforce,是因為要做一場關於如何在亞馬遜雲科技上構建生成式AI安全基礎的分享。

這既是他的個人風格,也為生成式AI安全增加了「可見度」。

Hart Rossman強調,面對生成式AI,企業需要一套「深度防禦」策略:先做策略、流程、意識培訓和教育,然後才是技術層面的起點,身份與訪問控制。

此外,亞馬遜雲科技也是首個通過FedRAMP High和美國國防部IL-4/5認證的雲服務商,適用於Anthropic和Meta基礎模型。「我們正在追求最高等級的安全保障來服務客戶。」Hart Rossman認為。這並不是終點,亞馬遜雲科技始終從客戶需求出發,持續學習、不斷挑戰自我,力求把安全性做到更好。

Hart Rossman談生成式AI時代「深度防禦」策略該怎麼做

亞馬遜雲科技安全副總裁Hart Rossman

生成式AI讓安全範式發生轉移

一年前,大家在面對生成式AI時,提出的問題不是擔憂,更多是出於不了解。因為當你沒有用過一種新技術是,自然不知道會遇到什麼。

Hart Rossman看到生成式AI有兩個特別值得注意的現象,這有助於企業理解AI安全的核心基礎。

第一個現象是,關於大語言模型,如今的授權模型早已不再是針對單個數據元素,不像過去那樣在資料庫中設置行級或單元格級別的權限。在大語言模型里,所有資訊從技術上講對用戶都是可訪問的。那麼問題變成,我們該如何為整個模型本身建立訪問控制和授權機制,而不是針對模型內部每條數據逐個控制。

亞馬遜雲科技也在探索如何構建與大語言模型交互的分布式系統,比如RAG框架、API接口、接入外部數據集。但需要注意的是,更多大語言模型的訓練是預先完成的,意味著它的訪問模型是固化的。

Hart Rossman解釋稱,這有點像編譯型代碼和解釋型代碼的區別:我們習慣在解釋型環境裡實現授權邏輯,隨時查看和調整執行過程;現在一旦模型訓練完成,就像代碼已經編譯好,內部細節便無法再查看或修改。

因此,真正要做的是對「模型本身」進行訪問控制和授權,而不是對其底層訓練數據進行授權。

第二個現象是,我們正在邁向AI智能體階段,企業已經開始把AI智能體當作「虛擬同事」來看待。

許多組織將AI智能體視作更複雜分布式系統中的一部分,因此問題變成:如何合理賦予AI智能體權限,確保它在安全可控的前提下完成任務。就像任何深度防禦策略一樣,一切都要從身份開始,然後是架構、數據、運維、響應。

用生成式AI改寫安全運營三大環節

將安全融入開發、升級流程的能力,正在變得越來越重要,亞馬遜雲科技的安全團隊正在三個方面融入生成式AI。

第一是代碼輔助,比如,使用Amazon CodeGuru或其他編碼助手,開發者可以在編碼階段自動執行安全檢查,實現「安全左移」,也就是在軟體開發生命周期的早期,就把潛在的安全隱患消除。同時,客戶可以通過Amazon Q for Business對舊有Java代碼進行升級改造,並在這個過程中自動完成安全加固和依賴項更新。

第二是漏洞評估和滲透測試,很多客戶和合作夥伴已經能夠實現這類工作的自動化。如果再結合傳統的模糊測試(fuzz testing),就能從整體安全測試策略中獲得更高質量的檢測結果。

第三是,事件響應,事件響應的本質是調查,涉及數據分析、解讀和推理。不僅亞馬遜雲科技客戶安全事件響應團隊(CIRT)在使用生成式AI輔助調查,很多合作夥伴和客戶也開始將生成式AI工具與人類分析師協作,提升事件響應的效率與判斷質量。

Hart Rossman最近最常用的服務就是全新的Amazon Security Hub,其在原有基礎上進行了全面升級,變得更加直觀、易用,帶來了既強大又簡潔的安全運營體驗。他用了新版本一段時間後,現在甚至有些記不清舊版是什麼樣子了。

他非常喜歡Amazon Security Hub的一點是,關鍵資訊能在關鍵時刻出現在你面前。他談到,Amazon Security Hub可以更好地進行漏洞優先級管理,也能直觀展現來自Amazon GuardDuty檢測的攻擊路徑。

Hart Rossman的團隊負責運營的Amazon Security Response Service,與Amazon GuardDuty 和Amazon Security Hub是深度集成的。這次新功能升級,讓團隊在處理客戶實時安全事件時,響應速度和處置效率都得到進一步提升。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新