谷歌、微軟、OpenAI和Anthropic近日宣布成立一個新的行業機構,目的是確保安全且負責任地開發AI模型。
在谷歌博客上發布的聯合聲明中,四家公司概述了這個名為Frontier Model Forum的組織,該組織負責推進AI研究,確定最佳實踐,並與政府、政策制定者和學術界展開合作,為確保人工智慧值得信賴和安全性鋪平道路。
微軟公司副董事長兼總裁Brad Smith表示:「開發AI技術的企業有責任確保其安全、可靠並處於人類控制之下。該舉措是重要一步,旨在將科技行業聚集在一起、負責任地推進AI並應對挑戰、使其造福全人類。」
自去年11月首次亮相以來,OpenAI的ChatGPT AI聊天機器人因其理解自然語言並使用令人信服的類人對話進行回復而風靡一時。從那時起,AI模型變得更加精緻了,能夠輕鬆地進行研究、長篇論文、執行邏輯謎題等。還有一些模型能夠通過利用現有材料創建令人信服的圖像和影片,從而引起對隱私和冒充的擔憂。
聲明稱,Frontier Model Forum的成員僅限於致力於大規模機器學習模型的公司,這些模型將構建並超越當前模型的能力。成員企業的任務是開發和部署這些「前沿模型」,並對安全構建這些模型做出堅定承諾,以及推出考慮到安全、信任和社區外展的聯合舉措。
在接下來的幾個月中,Frontier Model Forum打算成立一個顧問委員會來指導開展優先事項。創始公司還將重點為政府和社區引導AI模型發展進行決策和諮詢。
根據聲明,創始公司打算追隨其他旨在為AI開發完整性帶來積極成果舉措的腳步,例如AI合作夥伴關係和MLCommons。
Frontier Model Forum的成立正值世界各國政府逐漸意識到AI模型和新興行業背後的原始力量之際。上周,所有Frontier Model Forum的成員都加入了向白宮發布的自願承諾聲明,表示在總統拜登4月份會見科學和技術顧問以探討AI技術的影響之後,他們將致力於解決人們對AI模型風險日益增長的擔憂。
在某組織要求聯邦貿易委員會調查OpenAI之後,這家公司最近成為美國聯邦貿易委員的貿易行為調查目標。
與此同時,歐盟一直在推動全球第一部全面的AI法律,稱為「AI法案」(AI Act),該法案將規範歐盟對AI的監管方式。這項立法自4月以來一直被人們所爭議,旨在平衡不斷發展的行業與消費者的安全和擔憂以及隱私、監控、版權等人權。