OpenAI發布文章稱,於2024年3月至5月間成功阻止來自俄羅斯、中國、伊朗及以色列等國共5個惡意使用AI的活動。OpenAI指這些活動利用AI影響輿論,但均在達到目的前被終止。
根據OpenAI的報告,這些活動包括利用AI生成政治性評論、文章及社交媒體賬戶數據等。以下為詳細內容:
俄羅斯政治活動「Bad Grammar」
俄羅斯用戶利用AI在Telegram上開發機器人,並自動發布政治性評論,主要針對美國、烏克蘭、波羅的海國家和摩爾多瓦。這些評論由OpenAI的模型生成,內容包括批評美國對烏克蘭的支持。
俄羅斯「Doppelganger」組織
Doppelganger自2022年2月起,通過AI生成英文、義大利文、德文、法文及波蘭文的評論,並發表在X和9GAG。這些評論主要與烏克蘭政府及納粹主義的相關話題,目的是分裂支持烏克蘭的國家。
中國網路「Spamouflage」
Spamouflage網路利用AI生成多語言虛假評論及文章,並發表在X、Medium和Blogspot等平台。在開發披露網站revealscum「.」com使用AI來為平台程序代碼進行調試工作。
伊朗政治網路「國際虛擬媒體聯盟」(IUVM)
IUVM利用AI生增長篇文章及網站標籤,並發表在其網站iuvmpress「.」co,目的是影響伊朗境外的輿論。這些內容由多個SNS賬戶及網站聯合推廣。
以色列企業「Zero Zeno」
STOIC是一家政治及商業諮詢公司,利用AI生成反以色列的評論,並在Instagram、Facebook及X等平台上發布。這些評論也由AI生成,目的是影響輿論。
OpenAI表示,雖然這些活動並未顯著提升其受眾參與度或影響力,但仍顯示出AI在輿論操縱中的潛在威脅。OpenAI將繼續監控並阻止此類惡意行為,確保AI技術的安全和負責任使用。
數據源:OpenAI