宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

AI治理工作中的四大重要經驗

2024年07月05日 首頁 » 熱門科技

AI治理工作中的四大重要經驗

儘管部分IT領導者對AI新興技術的全面爆發措手不及,但不少同行卻表現出卓越的遠見,建立起AI治理框架以控制事態穩定。本文將帶來他們分享的四條積極策略與經驗教訓。

總部於位於德克薩斯州奧斯汀的軟體公司Planview從18個月前起,就開始使用生成式AI提升生產效率。在此期間,他們還嘗試將生成式AI整合進自己的產品當中,構建起可供用戶交互的copilot服務,用於支持戰略投資組合與價值流管理。Copilot提供的規劃場景能夠幫助管理人員達成產品發布目標,並就如何根據路線圖開發並交付成果、在各團隊間共享工作以及重新分配投資等任務給出建議。

作為AI的早期採用者,Planview公司很早就意識到如果想要以嚴肅態度應用AI技術,就必須制定政策和治理方案,全面涵蓋企業內部所做工作以及在產品供應方面做出的增強探索。根據該公司的經驗以及其他CIO們的心得,本文總結出四條重要經驗,希望能幫助更多組織制定出適合自身需求的AI治理方法。

依託現有框架

AI治理與其他治理並沒有本質上的區別。事實上,根據Planview公司CTO Mik Kersten的說法,由於大多數AI政策都與數據緊密相關,因此復用現有框架的難度並不算高。Planview方面就延續了其之前在開源和雲領域採取的指導方針,並根據AI治理的需求對具體細節做出了調整。

佛羅里達州立大學(FSU)的情況則完全不同,其AI治理體系源自之前的IT治理委員會。該委員會負責定期討論以確定投資與風險優先級。佛州大學CIO Jonathan Fozard表示,「我們會對整個校區內的投資項目進行排名,包括財務排名、價值排名和影響排名。AI項目也開始成為討論中的一部分,這就是我們探索AI治理的第一步。」

佛州大學的用例範圍從學術研究到辦公生產力無所不包——他們將AI作為課程的一部分納入教學,涉及工程、法律等各院系全體學生在未來參與勞動力市場時可能需要的AI專業知識。Fozard解釋稱,在成本、風險與潛在增值間的平衡探索就像在玩蹺蹺板。在第一輪討論中,部分項目會脫穎而出。之後該委員會開始關注這些高優先級項目,並通過種種舉措確保其能夠滿足高校自身的保護要求,包括智慧財產權、研究方向、用戶隱私以及敏感數據等。

Fozard總結道,「無論身處高等教育機構還是企業環境,首先需要關注的都是生產環節。因此應當拋開浮華,真正想清楚自己地打算實現什麼。找出如何使用技術在組織的各個層面上實現創新,然後切實保護好自己的數據和員工。」

明確哪些歸於內部,哪些付諸合作夥伴

Kersten指出,「我們必須制定出非常明確的政策,闡明哪些應由內部構建、哪些來自外部採購。我們擁有體量龐大的AI與數據科學團隊,我們的客戶成功部門要求這些團隊能夠建立起客戶支持能力。但在另一方面,我們也需要這些專家把精力投產到產品功能的開發中來。為了讓他們繼續從事核心工作,我們必須借政策之手明確哪些靠造、哪些靠買。」

在Kersten看來,明確開源使用政策同樣非常重要。Planview公司就決定僅在研究和內部用例中使用開源AI模型。至於銷售功能方面,該公司選擇了具有明確使用條款的大語言模型作為實現基礎。「我們的政策中列有明確條款,保證大語言模型提供商的使用條款符合我們的隱私與合規性要求。」

而在另一個完全不同的行業,總部位於香港的國際英語培訓機構華爾街英語則開發出自己的AI技術棧,旨在掌握對其業務至關重要的技術成果。該公司首席產品與技術官Roberto Hortal表示,「我們努力加快創新速度、提升成果質量,並打造一系列切實符合學生與教師需求的定製化解決方案。我們保持積極主動的態度,並將對最新發展趨勢、最佳實踐與潛在風險的把握納入到自身政策中來。」

作為一家教育機構,華爾街英語將AI技術融入其自學課程。他們利用AI進行語音識別、提供發音反饋,並作為對話智能體的基礎,希望藉此讓學生通過模仿現實場景來練習對話技巧。該公司還開發出一套治理框架,嘗試將技術、金融、法律乃至多元文化環境中的道德問題納入統籌考量。

保護完整價值鏈中的各個環節

考慮到對代碼生成工具的廣泛運用,Planview公司的AI治理方案強調了不侵犯版權資產的規則和指南。其中還包括軟體保護條款,要求任何代碼生成工具均不可捕捉其產品資訊並在其他場景下重複使用。Kersten解釋稱,該公司的AI治理不僅明確強調了這些要點,還會指導用戶如何配置工具。

Kersten指出,「GitHub Copilot中有一項行署,可以檢查並保證不會向開發者提供受到版權保護的代碼。另外一項設置則可檢查用戶的最終代碼,以確保其與原有repo中的代碼內容不致太過接近。還有一項設置,可以要求GitHub Copilot不保留用戶編寫的代碼。」

當然,具體需要保護什麼取決於公司業務線。Planview自然高度關注智慧財產權保護,而華爾街英語重視的則更多是文化敏感性。他們會調整課程內容以避免冒犯學生,因此公司使用的AI工具也必須做到這一點。Hortal表示,「正如我們會聘請訓練有素的教師來完善我們的在線課程,確保不會發表任何不當言論一樣,我們也必須保證AI工具不會在無意之中表達存在爭議或者不恰當的內容。我們採用了輸入清理、上下文跟蹤和內容過濾等技術來降低風險、修復漏洞。所有這些也都成為我們AI治理體系中的組成部分。」

無論具體想要保護什麼,制定規則時都不該把思路僅僅限定在自身組織以內,而應努力確保外包形式的工作也能得到同樣的保護。LogicGate是一家提供整體治理、風險與合規(GRC)平台的軟體廠商,公司CEO Matt Kunkel認為「那些全球最先進的公司往往在內部有著令人驚嘆的AI治理架構。但在外部場景下,他們往往會將所有數據都發送給第三方,由第三方利用這些數據訓練自己的大語言模型。所以如果第三方不接受你的AI使用政策,那你就失去了對AI治理工作的控制權。」

立即行動,刻不容緩

已經實施AI治理方案的IT領導者給出的頭號建議,就是立即行動起來。從IT領導層開始研究AI治理再到規則在整個組織內的傳遞,前後往往需要幾個月的時間。舉例來說,從Planview公司開始考慮自身政策,到通過學習管理系統將政策交付至各個部門,大致就花掉了六個月時間。

作為AI技術的早期採用者之一,Kersten經常公開討論Planview的經歷。「消極被動的組織將跟不上時代,所以請馬上開始制定你的政策。這沒有大家想像中那麼困難,而且一旦制定出政策,它就能幫助我們在內部創造成果、在外部約束產品的市場交付。」

Kunkel也對此表示贊同。「影子用例已經形成,所以CIO們必須儘快把AI政策重視起來。一個理想的起點就是在組織內圍繞AI風險偏好建立起共識。人們需要能夠坦誠地討論如何在快速行動與保護客戶數據之間取得平衡。」

而一旦確立了治理流程並將其傳達給整個組織,員工們也就可以放開手腳、專注於創造新的價值。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新