在丹·西蒙斯(Dan Simmons)發表於1989年的經典科幻作品《海伯利安》中,小說主人公永久接入了名為「數據空間」的AI網路。這套網路能夠即時將資訊傳輸進人們的大腦,導致的結果是,雖然知識唾手可得,但人們的自主思考能力已隨之喪失。
如今距離這部小說出版已經過去30多年,AI對人類智力的影響也顯露出來,小說中的情節,似乎已經照進現實。為了緩解這些風險,我想提出一個解決方案,嘗試在AI進步與尊重/保護人類認知能力之間做出調和。
AI給人類帶來的潛在福祉與助益已經相對明確,既包括促進社會正義、打擊系統性種族主義、改進癌症檢測,也涉及緩解環境危機和提高生產力等。
然而,AI的陰暗面也逐漸成為人們關注的焦點,包括由此激化的種族偏見、對社會經濟差異的加深,乃至操縱人類情緒和行為的能力。
西方第一本AI規則手冊?
儘管風險越來越大,但目前還沒有具約束力的國家/國際制度嘗試對AI做出規範。正因如此,歐盟委員會關於AI監管工作的提議才顯得如此難能可貴。
歐盟委員會擬議的AI法案(不久前這份最新草案剛剛獲得歐洲議會兩個委員會的批准)審查了AI技術中固有的潛在風險,並將其劃分為「不可接受」、「高」和「其他」三類。在「不可接受」分類當中,以下AI實踐將被直接禁止:
• 以會或可能導致當前個人或他人身體或心理傷害的方式,操縱對方的行為。
• 利用特定人群(例如年齡、殘疾)的弱勢現實,利用AI扭曲這些人的行為並造成潛在損害。
• 對人進行評估和分類(例如社會評分)。
• 在公共場所使用實時人臉識別技術進行執法,但特定情況除外(例如應對恐怖襲擊)。
在這份AI法案當中,「不可接受」的風險同危害概念密切相關。一系列重要步驟,共同揭示了保護特定活動與物理空間免受AI侵擾的必要性。我本人也與同事Caitlin Mulholland一道,表達了加強AI與人臉識別監管、保護隱私等基本人權的重要意義。
AI的最新發展,特別是在司法領域的自動裁判和在移動管理中的應用,尤其適合接受新法案的約束。此外,圍繞ChatGPT與OpenAI的爭論也引發了人們對於AI給人類智力所施加影響的深深憂慮。
不會被AI干擾的避難所
這些事實表明,人們在涉及權利、隱私和認知能力的場景下普遍反對部署AI成果。此外,還應明確定義哪些空間中的AI活動須接受嚴格監管。
我認為,這些保護區類似於古老的「避難所」概念。在一篇關於「監視資本主義」的文章中,作者Shoshana Zuboff極有先見地將這種避難權稱為權力的解藥。傳統上的聖地、教堂和修道院曾經是受壓迫社群的避難所。如今,數字層面的監視無處不在,Zuboff則堅稱應建立強有力的數字監管措施以維護這種避難權,讓人類得以享受「不可侵犯的避難空間」。
「遠離AI的避難所」絕不意味著徹底禁絕AI系統,而是要對這類技術的實際應用開展更嚴格的監管。以歐盟的AI法案為例,其中就要求對損害的概念做出更精確的定義。但無論是在歐盟擬議的立法草案中,還是在各歐盟成員國層面,都沒有可以操作的明確損害定義。關注技術立法的學者Suzanne Vergnolle教授認為,潛在的解決方案是在歐盟各成員國間建立共同標準,確切描述AI實踐可能造成的危害類型,同時考慮可能在不同種族和社會經濟背景下引發的集體損害。
為了建立無AI保護區,理應強制執行允許人類保護自身認知和精神健康狀態的法規。可行的起點包括建立新一代人權——即「神經權」,確保在神經技術的快速進步下保護我們的認知自由。法學專家Roberto Andorno和AI倫理學者Marcello Ienca也認為,歐洲人權法院認定的精神完整權應當延伸至精神疾病範疇之外,涵蓋包括AI系統侵入在內的其他未授權的意識侵入行為。
無AI保護區:建立宣言
在這裡,我想粗略整理「無AI保護區」的基本權利宣言,具體包括以下臨時條款:
• 選擇退出的權利。所有人都有權在自己指定的時段內,選擇脫離敏感領域的AI支持。即要求AI設備完全不干預或僅適度干預。
• 無負面影響。選擇脫離AI支持永遠不可引發任何經濟或社會意義上的負面影響。
• 人類掌握決定權。所有人均享有由個人做出最終決定的權利。
• 敏感領域和人群。政府當局應與民間社會和私人行為者合作,確定因特別敏感而不應暴露/只能適應暴露在侵入性AI下的領域(如教育、衛生等)及人類/社會群體(如兒童)
在現實世界中建立無AI保護區
截至目前,從嚴格意義上的空間角度看,「無AI空間」的應用並不均衡。部分美國和歐洲學校開始在課堂上刻意避免使用電子螢幕——即所謂「低技術/無技術教育」運動。但仍有大量數字教育項目依賴於可能導致精神成癮的設計,特別是公立和資金匱乏的學校往往更依賴於電子螢幕和數字工具,這無疑會加劇社會鴻溝。
即使是在教室等受控環境以外,AI的影響範圍也在不斷擴大。針對這一現實,在2019年至2021年期間,美國已經有十幾個城市通過了限制和禁止將人臉識別技術用於執法目的的法律。但自2022年以來,不少城市因犯罪率上升而有所妥協。儘管歐盟委員會提出了立法建議,但法國仍決定在2024年的巴黎奧運會上採用AI監控攝影機。
另外,可能加劇不平等問題的人臉分析AI在求職面試中也時有出現。結合過往成功過關者的數據,AI可能會傾向選擇那些擁有特權背景的候選人,同時排除具有弱勢背景的人群。這種做法理應被禁止。
AI驅動的網際網路搜尋引擎也應被禁止,因為AI技術還沒有做好在這個層面上廣泛普及的準備。正如資深技術記者Melissa Heikkiläa在2023年《MIT技術評論》中發文所言:「AI生成的文本看似權威並提供原文來源,但諷刺的是它仍可能在胡說八道,精美包裝下的胡言亂語在用戶眼中反而可信。」而且由於「用戶目前是在免費試用這項技術」,所以濫用和誤用沒有被視為嚴重問題。
允許進步,也要維護權利
無AI保護區所強調的權利將促進AI技術的進步,同時保護全人類的認知和情感能力。如果我們想要繼續以自己的方式獲取知識和經驗,同時保持原有的道德判斷能力,就必須擁有不使用AI這個重要選項。
在丹·西蒙斯的小說中,詩人濟慈實現了「賽博」重生並與數據空間斷開了連接,藉此抵抗AI的侵蝕。這一點極具啟發性,因為這揭示了AI可能對藝術、音樂、文學和文化產生的普遍影響。事實上,除了版權問題之外,這些人類活動也跟我們的想像力和創造力密切相關,也將成為我們抵禦AI侵入、維持獨立思考能力的基石。