宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

OpenAI、xAI等全球領先AI公司安全措施未達國際基準

2025年12月03日 首頁 » 熱門科技

據路透社報道,非營利研究機構「未來生命研究所」近日發布了最新的「AI安全指數」,評估結果顯示,包括Anthropic、OpenAI、xAI及Meta在內的全球主要人工智慧公司在安全措施落實上普遍滯後,遠未達到國際社會正在形成的新興安全標準。

OpenAIxAI等全球領先AI公司安全措施未達國際基準

報告指出,儘管AI技術正以驚人的速度向具備邏輯推理能力的「超級智能」演進,但各領先企業仍未建立起足以可靠管控此類高階系統的安全框架與治理機制。這一結論在近期發生多起與AI聊天機器人相關的自殘及自殺事件後尤為引人關注,加劇了公眾對具備超越人類能力系統潛在風險的普遍憂慮。

「未來生命研究所」主席、麻省理工學院教授Max Tegmark對此提出警示。他表示,雖然外界對AI可能協助黑客攻擊或導致使用者心理失控等風險討論不斷,但美國AI行業目前面臨的監管強度甚至低於餐飲服務業,且相關企業仍在持續遊說抵制強制性的安全規範。

OpenAIxAI等全球領先AI公司安全措施未達國際基準

當前,全球AI技術競賽持續升級,科技巨頭正為機器學習系統的擴展投入數以千億計的資金。與此同時,如何確保其安全可控,已成為科學界與政策制定者的核心關切。今年10月,包括圖靈獎得主傑弗里·辛頓與約書亞·本吉奧在內的多位頂尖科學家曾聯合呼籲暫停超級智能系統的研發,直至社會形成明確共識且科研界能找到確保其安全發展的可行路徑。

「未來生命研究所」成立於2014年,長期致力於研究與呼籲關注人工智慧等新興技術對人類社會的長遠影響,其早期曾獲得特斯拉CEO伊隆·馬斯克等科技界人士的支持。此次發布的報告再次凸顯了AI技術快速發展與其治理體系不匹配之間的深層矛盾。

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新