5月16日,美國立法者們正在努力研究,應該對新興的人工智慧設定什麼樣的監管,但在ChatGPT引起美國政府注意的幾個月後,共識還遠未確定。
一部分提案將側重於可能使人們的生命或生計處於危險之中的人工智慧,比如在醫學和金融領域中使用的人工智慧技術。其他可能性還包括確保人工智慧不被用於歧視或侵犯人類的公民權利的規則。對於這項技術的另一個爭論,是應該監管人工智慧的開發者,還是監管利用人工智慧與消費者互動的企業。
目前還不確定哪種方法會勝出,但包括IBM和美國商會在內的一些商界人士贊成只對醫療診斷等關鍵領域進行監管的方法,他們將其稱之為基於風險的監管方法。美國商會技術參與中心的喬丹·克林肖(Jordan Crenshaw)表示,如果國會決定有必要制定新的法律,美國商會的人工智慧委員會主張 「根據對個人的影響來確定風險」。例如,人工智慧推薦影片的時候,它所帶來的風險可能不會像做健康或財務決定一樣高。
人工智慧的熱潮導致了一系列行業會議,包括OpenAI、其支持者微軟和Alphabet Inc的CEO在本月訪問白宮。美國總統喬·拜登(Joe Biden)會見了這些CEO們。國會助理和技術專家表示,國會也同樣在參與這項技術的發展。支持科技的進步商會負責人亞當·科瓦切維奇(Adam Kovacevich)表示,隨著立法者的速度加快,大型科技企業的主要任務是要反對 「過早的過度反應」。舒默提出的計劃要求獨立專家在新的人工智慧技術發布之前對其進行測試。他還要求企業提高透明度,並向政府提供該技術所需要的數據以避免傷害。
基於風險的監管方法意味著,例如用於診斷癌症的人工智慧將受到食品和藥物管理局的審查,而用於娛樂的人工智慧將不受監管。歐盟已經開始著手通過類似的規則。但在民主黨參議員麥可·貝內特(Michael Bennet)看來,監管機構對風險的關注似乎還不夠,他提出了一項法案,呼籲成立政府人工智慧工作組。他表示自己主張採取「基於價值觀的監管方法」,優先考慮隱私、公民自由和權利。
貝內特的一位助手補充,基於風險的管理規則可能會過於死板,無法發現像人工智慧用來推薦宣傳白人至上主義的影片這樣的危險。一位不願透露身份的政府工作人員向媒體透露,立法者還討論了如何最好地確保人工智慧不被用於種族歧視。
OpenAI的研究科學家庫倫·奧吉菲(Cullen O『Keefe)於4月份在斯坦福大學的一次演講中提議建立一個機構,授權企業在訓練強大的人工智慧模型或運營促進這些模型的數據中心之前獲得許可。奧吉菲稱,這個機構可以被稱為人工智慧安全和基礎設施安全辦公室,簡稱OASIS。
在被問及該提案時,OpenAI的首席技術官米拉·穆拉蒂(Mira Murati)表示,一個值得信賴的機構可以讓開發者對安全標準「負責」。但比機制更重要的是「在什麼是標準,什麼是試圖減輕的風險方面」達成一致。美國最後設立的主要監管機構是消費者金融保護局,該局是在2007-2008年金融危機後設立的。
一些共和黨人可能會對任何人工智慧監管表示反對。一位參議院共和黨人的助手對媒體表示:「我們應該小心,人工智慧監管提案不會成為政府對搜尋引擎和算法等電腦代碼進行微管理的機制。」