從AI誕生的那一刻起,關於如何監管AI的討論就從未停止過。
但事實上,如何監管AI是一個非常複雜的話題,不同的國家和地區也有不同的監管政策和框架,如歐盟的《人工智慧法案》、美國的《人工智慧問責政策徵求意見》、中國的《生成式人工智慧服務管理暫行辦法》等,對AI的定義、分類、風險分級、責任劃分等方面提出了一些規範和要求。
而近期在葡萄牙里斯本舉行的Web Summit 2023峰會上,來自麻省理工學院斯隆管理學院的首席研究科學家安德魯·麥卡菲(Andrew McAfee)則給我們提供了一個新的解題思路——「無需許可的創新」觀念,與之前很多針對AI的監管方案站在了對立面。
麻省理工Andrew McAfee(安德魯·麥卡菲)博士
「無需許可」真的不會帶來災難嗎?
在這場備受關注的演講中,他提到了兩個概念:upstream governance(「上游治理」或「預防性治理」)和permissionless innovation(「無需許可的創新」)。其中,upstream governance意為「上游治理」、「前瞻性治理」或「預防性治理」,指在技術創新之前,就先對其可能帶來的風險和影響進行預防性的監管和控制。
與此相對的是permissionless innovation,意為「無需許可的創新」、「自由創新」或「無限制創新」,指創新者不需要事先獲得政府或其他機構的許可,就可以自由地進行新技術和新商業模式的實驗和探索。
安德魯·麥卡菲旗幟鮮明地站在了自由創新這一邊,理由有三個方面:
首先,自由創新並不意味著沒有規範和監督。
安德魯認為,這個問題從根本上而言這是一個監管時機的問題,也就是不應該進行「預防性治理」,而應該有針對性地進行監管。例如以前帶攝像頭的智慧型手機剛剛興起的時候,有人用它來偷拍女性裙底,而當時由於手機攝像頭還是個新鮮事物,法律並沒有相關的規定來保護女性權益。
但後來很快,就有相關立法機構對此推出了相關的法律規定,在技術發展後對如何使用進行了一定的規範。換言之,如果有人用菜刀傷人,應該增強管理使菜刀更安全,而不是用法規的力量讓菜刀沒有刀鋒。
用我們常說的話而言就是:「發展的問題要用發展來解決」。AI也是如此,我們應該做的是在AI發展過程中動態地解決中間出現的問題,不能因為發展AI可能產生的一些危險就止步不前,希望通過限制發展來避免危險,用安德魯的原話就是要「讓改錯更簡單」,而不是「保證不犯錯」,這樣才能使監管真正起到作用。
其次,安德魯認為我們可能高估了AI的危害。
自AI誕生以來,各種關於AI將會帶來大災難的消息就一直沒有消失過,甚至還有很多人將其與核戰爭、大流行病等事物列在一起,認為AI是像「潘多拉的魔盒」一樣的存在,達到了聳人聽聞的地步。
但安德魯博士認為我們可能過於專注於AI,而忽略了很多其他更危險的技術。例如生物技術,每個人都可以獲取相關的知識和設備,且不需要經過審核或許可。如果你在生物技術領域工作,你可以在無需審核或許可的情況下做很多事,這是一個不合理的平衡。
最後,或許也是最重要的一個原因,就是這種「無需許可的創新」可以激發創造力和想像力。
我們有一個基本的常識,即創新是一種不可預測的、具有分散性的活動,這是它的核心屬性,我們很難預測未來的發展方向,尤其在當AI變得越來越強大的當下,未來發展的發展方向可能會越來越多地出現在我們沒有注意到的地方。
在演講開頭,他還提到了一款學習語言的軟體——多鄰國APP,認為這很能說明Permissionless innovation的優勢。這款APP利用了最新的AI技術,能夠更加方便、快速、低成本地評估英語水平。但如果要求其在技術上市之前就滿足一系列比如數據保護、算法透明、人類監督等要求的做法,會限制創新的空間和速度,從而錯失創新的好機會。
Permissionless innovation不只應用在科技領域
事實上,這種Permissionless innovation的優勢不僅體現在AI領域,在此次Web Summit 2023的演講上,Andrew還舉了關於mRNA和丘吉爾的對話兩個例子,為我們講述了Permissionless innovation概念在其他領域的作用。
今年獲得諾貝爾醫學與生物學獎的卡塔林·卡里科(Katalin Kariko)曾離開學術界十年之久,mRNA研究方向在當時也普遍不被看好,這個時候如果有一個主張「前瞻性治理(upstream governance)」的力量介入進來,那麼mRNA方向的研究很有可能就會因為經費、項目等諸多原因而被「前瞻性地」廢棄掉,這無疑對於整個人類而言都是非常重大的損失。
事實上,「前瞻性治理」的基礎在於對未來有一個準確的判斷,但很明顯沒有人能夠實現預測哪個方向會出現突破,如果判斷出錯那麼將會失去很多出現優秀創新的可能,這就體現出Permissionless innovation理念的重要性。
另一個例子發生在1938年,此時正處於二戰爆發前夕,戰爭的陰影籠罩著歐洲,時任英國首相張伯倫在與希特勒接觸後簽訂了著名的「綏靖政策」代表作《慕尼黑協定》,認為可以通過與希特勒簽訂和平協議來換來和平。但在返回英國後,丘吉爾一語道破天機,打破了張伯倫以及當時很流行的綏靖主義風氣。
他說:「你認為你可以在戰爭和恥辱(指與納粹簽訂合約)之間做一個選擇,於是你選擇了恥辱,但戰爭仍然是不可避免的。」可以看出,Andrew先生認為AI帶來的危機可能並不是「預防性治理」就可以避免的。換言之,擺在人類面前的並不是「加強微觀管理」和「混亂」兩個選擇,而是無論怎樣選擇,由AI帶來的混亂或許都難以避免。
當然,這個道理還有一個廣為人知的中國名字——堵不如疏,在人工智慧已成浪潮洶湧之勢的當下,或許積極著眼於怎樣面對新的浪潮才是更好的態度。