在實施AI的過程中,信任的問題從未遠離,尤其是在像生成式AI這樣的新興領域中。在2023年的Transform大會上,Teradata的首席產品官Hillary Ashton深入討論了企業必須如何應對數據治理、隱私保護和保持透明度的複雜性,以確保他們的AI驅動的運營得到信任。
Ashton說:「生成式AI已經把高級分析的整個領域帶入到了董事會的討論中,而在此之前,它更多的是後台的討論,有很多未被挖掘的潛力。這是一個令人興奮的領域,但也是人們需要從信任的角度仔細思考的問題。生成式AI真正提出了什麼是受保護的數據,什麼是個人身份資訊(PII)數據。你希望如何處理這些數據,尤其是在大型語言模型和生成型AI中?」
信任在應用生成式人工智慧的作用
Ashton表示,企業必須為其客戶提供本質上的信任,這開始於基礎的數據質量和個人身份資訊(PII)數據的清晰分離。
她補充說:「這聽起來像是基本的條件,但對於許多企業來說,實際將其付諸實踐是非常困難的。他們需要技術、人員和流程才能做到這一點。」
企業必須建立健全的數據治理框架,把數據當作產品對待,並確保將乾淨、非PII的數據提供給用戶。堅守法規合規是至關重要的,組織需要對他們如何使用生成型AI及其對數據隱私的影響保持透明。在與第三方供應商合作或使用大型語言模型(LLMs)時,保護智慧財產權(IP)和保護專有資訊也是至關重要的。
她說:「這就是為什麼我要回到明確理解你想如何使用高級分析 - 你需要了解的不僅是你的PII,還有你的IP。你是如何保護它的?你可能會考慮,如果你的高級數據科學家在編寫提示,那就是你作為一個組織的IP。這不是你想免費送給競爭對手的IP。當我們考慮像PII數據這樣的事情時,這可能並沒有明確說明。現在,提示成為了你的IP。現在你有一個全新的關於提示保護和IP的法律實踐。」
這甚至包括你選擇如何構建你的數據,這是高度專有的。如果你是A銀行,和B銀行競爭,你並不想因為供應商使用了基於你的數據結構的LLM,無論它如何清潔,而讓你的競爭對手獲得優勢。
從那裡,她說,關鍵在於「確保你理解你所在的任何市場,合規性看起來是什麼樣的,你是以那個終態為目標建立的,然後向你的客戶透明說明你是如何使用生成型AI的,你是如何不使用生成型AI的,所以[它]可以被信任。」
信任也不僅限於隱私;它還擴展到模型結果的可靠性和準確性。定期評估模型並採取積極措施改正表現不佳是維護用戶信任的必要條件。
那麼從哪裡開始呢?
開始的意味著從你想要實現的結果反推,Ashton說,這主要分為兩個方面。第一,你已經具有高級功能的領域,你想通過高級分析保持領先優勢。第二,解決你可能沒有但競爭對手已經具備的基本挑戰。
從那裡開始,需要考慮的是數據治理和尊重IP和PII數據的主權。第二部分是能夠在大規模上做到這一點,最後一部分是模型運營,或者管理模型進入生產,並理解何時模型開始表現不佳或返回不可接受的結果。
最後,關鍵是不要在新奇中迷失,而是評估投資回報率和價格性能。
Ashton說:「我們都對大型語言模型和生成型AI感到非常興奮。但是,隨著時間的推移,對於一些並非高價值的用例,運行一些操作的成本可能會變得過高。確保你不是因為它酷而用一個大型語言模型來解決一個可以用BI樞軸圖表解決的問題 —— 這看起來像是一個瘋狂的例子,但它並不那麼瘋狂。」