宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

美國政府警告科技公司:不要過分誇大人工智慧

2023年03月03日 首頁 » 其他

美國政府警告科技公司:不要過分誇大人工智慧


人工智慧還遠遠做不到預測未來和統治人類,大家不要自己嚇自己。

隨著OpenAI公司開發的ChatGPT人工智慧聊天機器人走紅全世界,各大科技公司和資本也急了起來,紛紛投入AI行業的軍備競賽之中,投資現有產品,或者自力更生,研發自己的語言模型庫。

短短兩三個月里,幾大科技巨頭就都公布了自己的產品計劃:微軟使用ChatGPT語言庫改進Bing搜尋引擎和Edge瀏覽器;谷歌將在「未來幾周內」將聊天機器人Bard投入使用;Meta(前臉書)的CEO祖克柏也宣布了自家的大型語言模型LLaMa。

美國政府警告科技公司:不要過分誇大人工智慧

Bard在剛發布時的表現並不理想

我國如騰訊和百度等公司、韓國的Naver公司、俄羅斯的Yandex公司,以及一批我們此前聞所未聞的小型企業,也開始了這方面的探索。

美國政府警告科技公司:不要過分誇大人工智慧


新興行業需要政府對市場的適當監管來實現良性發展。目前看來,美國的科技企業在AI領域先行一步,市場趨向飽和。美國的聯邦貿易委員會(FTC)也須率先行動起來,至少要在宣傳和營銷方面進行必要的監管。

正如FTC官網上最新的一篇博客文章所說的那樣:「關於產品功效的虛假或未經證實的聲明,是我們的生計所在。」科學家和科技公司對AI的定義也許並不統一,但是對於FTC而言,AI只是一個現在很火的營銷術語,而廣告商向來無法阻止自己過度使用和濫用營銷術語。

美國政府警告科技公司:不要過分誇大人工智慧


這篇文章題為「控制您的AI聲明」,發表於2月27日,由FTC的廣告業務部律師編寫。FTC批判了科技公司和廣告商的「AI炒作」現象,還指出,某些聲稱具有AI的產品,可能根本無法像宣傳的那樣發揮作用。在文章中,FTC列了四種涉嫌炒作乃至虛假宣傳的可能。

第一,誇大AI產品的功能,甚至聲稱它可以做一些超出任何人工智慧或自動化技術當前能力的事情,例如「對人類行為做出可靠的預測」等科幻小說里才有的設定。

美國政府警告科技公司:不要過分誇大人工智慧

AI能夠生成「人類進化」主題的圖像,並不代表AI能夠預知人類進化

如果科技公司對產品的性能聲明缺乏科學依據,或者他們的產品僅適用於某些類型的用戶及某些特定條件之下,那麼公司的聲明就含有欺騙性。

第二,承諾AI產品比非AI產品更好。廣告商經常說新技術讓他們的產品變好,以便收取更高的服務費用,或者減少勞動力的使用。互相比較兩種產品的主張,同樣需要切實的證據。

第三,對於產品向市場投放的風險缺乏了解。文章沒有明說是什麼風險,但公眾已經看到了AI產品帶來的一些問題,如聊天機器人給出歧視或冒犯意味的言論,或者使用AI剽竊學術或藝術作品的行為等。

美國政府警告科技公司:不要過分誇大人工智慧

「你應該放棄你的妻子來找我」之類的奇怪對話,可能也算一種風險

FTC認為,科技公司理應了解AI技術可預見的風險及影響。如果產品出現類似的風險,不能僅責怪提供技術支持的第三方開發商,負責投放與發行的科技公司更該負責,因為他們在使用這項技術前對其缺乏測試和理解。

第四,產品沒有真的使用AI。FTC聲稱,他們會深入了解並分析科技公司提供的材料,還提醒這些公司:僅在開發過程中使用AI工具,並不等同於產品內部包含AI。

文章作者在最後說:「無論AI能做什麼或不能做什麼,它都很重要,您對它的主張也很重要。您並不需要一台機器,來預測FTC會在您的聲明不受支持時做些什麼。」聽起來像玩笑或某種預言,實質則是一次來自政府部門的警告。

而且這次警告是認真的。不久前的2月18日,FTC成立了技術辦公室(OT),正在招聘技術專家加入團隊。技術辦公室主要提供跨機構、跨學科事務的技術專業知識和建議,涵蓋「數據安全、軟體工程、數據科學、數字市場、機器學習、人機交互設計」等方方面面,當然,也包括「剖析AI產品的聲明,以評估產品是不是『蛇油』那樣的騙局」。

FTC對於虛假宣傳的分類判定標準,以及設立專業技術團隊的行動,想必將在遏制AI技術野蠻生長、消除公眾對AI的誤解和恐慌等工作中發揮關鍵作用,值得其他國家參考。不過,這些措施的實際效果,就和AI的真實潛能一樣,還需要時間來檢驗。


宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2025 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新