越來越強大的AI科技帶來的隱憂不容忽視,如果遭到濫用,則有機會造成毀滅性的風險。OpenAI有見及此,也成立了一個團隊,專門評估和防範相關的問題,確保AI科技不會帶來災難。
OpenAI宣布成立的團隊名為「Preparedness(備戰)」,由麻省理工學院的可部署機器學習中心Center for Deployable Machine Learning) 主任Aleksander Madry領導。團隊的主要任務包括關注、預測,以及防範未來AI系統可能帶來的危險,特別是這些系統在網路安全範疇的潛在威脅。OpenAI在說明中提及了不同的風險類別,其中更包括有化學、生物、輻射和核威脅等可怕的危機。
同時,OpenAI也舉辦挑戰賽邀請開發者社交媒體提交風險研究提案,獲選的開發者不只可以獲得獎金,還有機會加入Preparedness團隊。這活動要求參與者思考如果惡意用戶獲得對OpenAI某些先進模型不受限制的訪問,可能會發生的最壞情況。OpenAI強調,隨著AI模型的能力不斷提升,對全人類的潛在益處增加同時,也帶來了嚴重的風險。因此,他們正在積極發展策略和基礎設施,以確保能夠安全地控制和部署這些高級AI系統。