近日,人工智慧公司OpenAI的創始人Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever在其官網上發布了一篇名為《超級智能的治理》的博文,稱人工智慧的創新速度如此之快,以至於我們不能指望現有的機構能夠充分控制這項技術。
文章指出,雖然人工智慧系統將在許多領域超越專家技能水平,帶來更加繁榮的未來,但我們必須管理風險,並提出了三個方案以應對風險:
1.在開發工作之間進行一定程度的協調,確保超級智能的安全和與社會的整合;
2.成立「人工智慧版國際原子能機構」,即專門的國際監管機構;
3.確保超級智能安全的技術能力。
OpenAI高管認為,重要的是允許低於重要能力閾值的模型的開發,無需具有繁瑣的監管機制,而阻止超級智能的產生則需要全球監管制度,即使這樣也不能保證有效。
上周,奧特曼在出席美國國會聽證會的時候已經表示,OpenAI「非常擔心」選舉受到人工智慧生成的內容的影響。他擔憂人工智慧行業可能「對世界造成重大傷害」。如果這項技術出了問題,它可能會大錯特錯。我們希望與政府合作,防止這種情況發生。