自AI蓄勢爆發以來,人工智慧(AI)正在改變商業格局。有數據表明,越來越多的風險投資正在向生成式人工智慧項目注入資金,企業對人工智慧的投資也達到歷史最高水平。Forrester曾在2022年預測,未來兩年人工智慧軟體市場的增長速度將比整體軟體市場快50%。然而,這種炒作與對人工智慧對人類潛在風險的嚴重擔憂密切相關。
人工智慧『狂野西部時代』終結的起點
儘管OpenAI的ChatGPT的興起引發了人們對使用和投資生成式AI的興趣,但這一現象背後也並非沒有謹慎和警告。人工智慧已經從之前的重大技術進步中脫穎而出——與同樣得到廣泛投資和採用的雲計算、VR、AR、移動和5G技術不同,人工智慧為各公司和行業提供了無數的用例和無限的可能性。但這使得預測和管理其帶來的大量風險及其對個人、公司和社會的潛在影響變得困難,比如最近影響了好萊塢的罷工事件,其中不乏AI所帶來的問題的影響。
針對此類問題的解決方案是創造行業內共同認知並規範人工智慧,尤其對人工智慧系統的道德、透明和值得信賴的開發部署加以規範——馬斯克的xAI似乎正準備把這一目的當成其AI系統的準則。當然,理想的情況下,負責任的人工智慧有助於提高可信度,使得人們在日常生活中與之互動的人工智慧不會永久存在偏見和「政治正確」,算法會在人類監督下定期進行審核,並且這一設計和實施方式應當易於理解。然而,現實情況是,對於這種看似完美的解決方案,人們可能很難知道從哪裡著手開始進行。
應對複雜的人工智慧風險形勢
在以負責任和道德的方式開發和部署人工智慧之前,了解人工智慧開發不同類型的風險,以及如何解決這些風險是非常重要的,針對AI系統,福布斯技術委員會提出了以下幾種需要注意的風險類型。
隱私風險。人工智慧需要訪問大量數據來學習和提高其性能,其中可能包括個人資訊和敏感資訊。個人數據的濫用或處理不當可能會導致數據泄露、身份盜竊和其他損害——侵犯隱私權。
道德風險。道德問題圍繞偏見和歧視、透明度和問責制以及人工智慧對就業和社會的影響。隨著人工智慧越來越多地用於決策,確保結果公平和準確的風險變得越來越大。
合規風險。全球範圍內正在提出一些新的法規,例如歐盟的人工智慧法案,該法案將要求組織披露他們如何使用、治理和管理人工智慧。組織需要對模型的使用方式、模型的訓練方式、使用的數據等的整個流程進行密切的管理和記錄。
透明度和信任風險。人工智慧模型可能很複雜且難以理解,因此很難了解它們如何做出某些決策或預測。隨著人工智慧採用率的飆升,算法將在人們的生活中發揮強大的(並且可能有害或有偏見的)作用。透明度(或缺乏透明度)將極大地影響人們對人工智慧公司和行業的信任程度。
操作風險。使用人工智慧可以產生新的依賴關係,嚴重依賴人工智慧系統的企業,在沒有人工智慧系統的情況下可能缺乏有效運營的能力。如果人工智慧系統發生故障或受到損害,或者監管變化認為該系統無法使用,這可能會引發重大的業務連續性風險。
構建信任和安全層
為了安全、負責任地使用人工智慧,首先要從文化入手。
一旦組織了解了與人工智慧相關的不同風險,他們就可以制定和實施全面的人工智慧戰略,和負責任的人工智慧框架。團隊和利益相關者之間的協作和開放溝通是組織內負責任地採用人工智慧的關鍵。
而為了確保對整個組織的有效支持,利益相關者需要從教育和提升最高管理層的人工智慧素養開始。
福布斯技術委員會認為,主要利益相關者、董事會成員和高管都應參與開發負責任的人工智慧方法,以滿足業務創新、規模化和展示影響力的需求,同時支持集成隱私、道德、運營、透明度和合規性考慮因素的強大的負責任的人工智慧框架。
同時,有效管理人工智慧風險需要的不僅僅是文化認同;組織需要確保全新的可見性水平,涵蓋人工智慧可能在整個業務中使用的許多不同領域。除非組織能夠識別人工智慧在其業務中的每一個應用,否則負責任的人工智慧就無法完全實現。
將人工智慧集成到現有的數據管理計劃中。
數據既可以是組織最大的資產,也可以是最大的威脅,這一觀點往往側重於,不負責任地使用數據時,所產生的潛在隱私和安全風險。對於人工智慧來說尤其如此,因為組織利用人工智慧實現差異化的能力取決於數據集的質量。
同樣,如果機器學習平台中使用的數據是個人數據或敏感數據、未經同意使用或可能產生偏見,公司將面臨一系列隱私、道德或合規風險。
這就是為什麼,公司必須確保將其人工智慧計劃中使用的數據集成到其現有的數據治理和風險管理計劃中,這一點至關重要。通常,人工智慧的數據並不只屬於一個團隊,相同的數據正在整個企業的其他地方使用。然而,人工智慧程序往往存在於「孤島」中。
福布斯技術委員會指出,通過將負責任的人工智慧程序集成到現有的大型數據管理計劃中,組織可以確保將正確的隱私和安全策略,以及安全和控制措施應用於人工智慧數據集和模型。隨著人工智慧成為戰略重點,這種做法也增強了關鍵隱私、安全、數據科學和MLOps團隊對人工智慧的廣泛認識。
而通過將人工智慧納入更廣泛的數據管理計劃中,組織可以有效地管理風險、並確保人工智慧的使用符合道德規範和必要的標準和法規。